
IT之家从官方新闻稿中得知,DBRX 是一个基于 Transformer 的大语言模型,采用 MoE(Mixture of Experts)架构,具备 1320 亿个参数,并在 12T Token 的源数据上进行预训练。
研究人员对这款模型进行测试,相较于市场上已有的 LLaMA2-70B、Mixtral、Grok-1 等开源模型,DBRX 在语言理解(MMLU)、程式设计(HumanEval)及数学逻辑(GSM8K)等基准测试上的表现较为突出。官方同时提到,DBRX 在上述 3 项基准测试中也超越了 OpenAI 的 GPT-3.5。

Databricks AI 部分副总裁 Naveen Rao 向外媒 TechCrunch 透露,该公司花了两个月及 1000 万美元的成本来训练 DBRX,虽然目前 DBRX 在整体成绩方面发挥较好,不过目前该模型需要使用 4 块英伟达 H100 GPU 运行,因此还有待优化空间。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » Databricks 推出 1320 亿参数大语言模型 DBRX,号称“现阶段最强开源 AI”

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





