
DeepSeek 官方昨日(9 月 5 日)更新 API 支持文档,宣布合并 DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型,升级推出全新的 DeepSeek V2.5 新模型。
官方表示为向前兼容,API 用户通过 deepseek-coder 或 deepseek-chat 均可以访问新的模型。
新模型在通用能力、代码能力上,都显著超过了旧版本的两个模型。
新模型更好地对齐了人类的偏好,在写作任务、指令跟随等多方面进行了优化:
-
ArenaHard winrate 从 68.3% 提升至 76.3%
-
AlpacaEval 2.0 LC winrate 从 46.61% 提升至 50.52%
-
MT-Bench 分数从 8.84 提升至 9.02
-
AlignBench 分数从 7.88 提升至 8.04
新模型在原 Coder 模型的基础上进一步提升了代码生成能力,对常见编程应用场景进行了优化,并在标准测试集上取得了以下成绩:
-
HumanEval: 89%
-
LiveCodeBench (1-9 月): 41%
IT之家注:Deepseek AI 模型由杭州深度求索人工智能推出,该公司成立于 2023 年。

官方介绍如下:
专注于研究世界领先的通用人工智能底层模型与技术,挑战人工智能前沿性难题。基于自研训练框架、自建智算集群和万卡算力等资源,DeepSeek(深度求索)团队仅用半年时间便已发布并开源多个百亿级参数大模型,如 DeepSeek-LLM 通用大语言模型、DeepSeek-Coder 代码大模型,并且在 2024 年 1 月率先开源国内首个 MoE 大模型(DeepSeek-MoE),各大模型在公开评测榜单及真实样本外的泛化效果均有超越同级别模型的出色表现。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » Deepseek AI 模型升级推出 2.5 版:合并 Coder 和 Chat,对齐人类偏好、优化写作任务和指令跟随等

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





