据介绍,用户与大模型之间的对话交流,通常被认为是短期记忆。一旦对话长度超过了其上下文承载能力,超出的部分就可能会被模型遗忘。
区别于传统的文本处理模型,长文本模型具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力,可以一次性理解和生成更多的信息,适用于复杂的对话、长篇内容创作和详细的数据分析等任务,能提升模型解决问题的边界。
6 月 27 日,讯飞星火 V4.0 发布,长文本能力全新升级,并针对长文档知识问答的幻觉问题,业界首发内容溯源功能。当用户向星火提问,它回答完,会告诉你为什么这么回答,是参考了哪一段内容,这样当用户没有时间看全文的时候又担心回答可信度时,只要去核实它的溯源就行了。

现在,支持最长上下文的星火大模型 Spark Pro -128k 面向开发者开放 API 调用,价格为 0.21~ 0.30 元 / 万 tokens,个人用户可免费领取 200 万 tokens 的服务量。IT之家附价格表如下:


广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 科大讯飞星火 Spark Pro-128K 大模型开放调用,最低 0.21 元 / 万 tokens

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





