
马斯克表示,训练 AI 聊天机器人需要数据集,而且从现有数据中清除大型语言模型 (LMM) 的工作量很大。他还谈到了 OpenAI 模型输出训练的几个问题。
他透露 xAI 的 Grok-3 用了 10 万块英伟达 H100 芯片进行训练,预计将于年底发布,相信它会“非常特别”。
H100 是英伟达开发的专门用于处理大语言模型(LLMs)数据的 AI 芯片。每块英伟达 H100 人工智能芯片的价格估计在 3-4 万美元(当前约 21.9 – 29.2 万元人民币)左右,批量购买的话可能会有折扣。
我们简单计算可知,xAI 这里的 10 万块英伟达 H100 价值 30-40 亿美元(IT之家备注:当前约 218.68 – 291.57 亿元人民币)。马斯克之前曾提到特斯拉今年从英伟达的采购额估计将在 30-40 亿美元之间,合理推测 xAI 这里用的是特斯拉购买的英伟达芯片进行训练。
相关阅读:
-
《马斯克:xAI 将于 8 月推出 Grok-2 大语言模型》
-
《马斯克:特斯拉今年的英伟达芯片采购额或达 40 亿美元》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 马斯克:xAI 训练 Grok-3 大模型用了 10 万块英伟达 H100 芯片

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





