
IT之家附 Kimi 开放平台上下文缓存功能公测详情如下:
技术简介
据介绍,上下文缓存是一种数据管理技术,允许系统预先存储会被频繁请求的大量数据或信息。当用户请求相同信息时,系统可以直接从缓存中提供,无需重新计算或从原始数据源中检索。

适用场景
上下文缓存适用于频繁请求,重复引用大量初始上下文场景,可降低长文本模型费用,提高效率。官方表示费用最高降低 90 %,首 Token 延迟降低 83%。适用业务场景如下:
-
提供大量预设内容的 QA Bot,例如 Kimi API 小助手
-
针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具
-
对静态代码库或知识库的周期性分析,例如各类 Copilot Agent
-
瞬时流量巨大的爆款 AI 应用,例如哄哄模拟器,LLM Riddles
-
交互规则复杂的 Agent 类应用等


计费说明
上下文缓存收费模式主要分为以下三个部分:
Cache 创建费用
-
调用 Cache 创建接口,成功创建 Cache 后,按照 Cache 中 Tokens 按实际量计费。24 元 / M token
Cache 存储费用
-
Cache 存活时间内,按分钟收取 Cache 存储费用。10 元 / M token / 分钟
Cache 调用费用
-
Cache 调用增量 token 的收费:按模型原价收费
-
Cache 调用次数收费:Cache 存活时间内,用户通过 chat 接口请求已创建成功的 Cache,若 chat message 内容与存活中的 Cache 匹配成功,将按调用次数收取 Cache 调用费用。0.02 元 / 次

公测时间和资格说明
-
公测时间:功能上线后,公测 3 个月,公测期价格可能随时调整。
-
公测资格:公测期间 Context Caching 功能优先开放给 Tier5 等级用户,其他用户范围放开时间待定。
相关阅读:
-
《月之暗面 Kimi 开放平台将启动 Context Caching 内测:提供预设内容 QA Bot、固定文档集合查询》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 月之暗面 Kimi 开放平台“上下文缓存”开启公测:首 Token 延迟降低 83%、适用于文本重复引用场景

新聚网
Swift Assist 进化:苹果 Xcode 26 可接入端侧、Claude 等 AI 编程模型
安全公司曝光黑客盗用开发团队账号在 NPM 平台散布恶意软件包,涉及 React Native / GlueStack 项目
英特尔发布 32.0.101.6881 WHQL 显卡驱动,修复《守望先锋 2》游戏崩溃问题
时隔一年半,苹果手记 Journal 应用将随 macOS / iPadOS 26 登陆 Mac / iPad
苹果推出容器化框架,可直接在 Mac 上创建、下载或运行 Linux 容器镜像
微软 Win10 / Win11 新版 Outlook 被曝新问题:重要会议安排凭空消失
Linux 6.16 首个 RC 候选版发布:提升电源管理效率、扩展硬件支持、优化 EXT4 文件系统





