
然而,就像所有 AI 聊天机器人一样,Grok 也存在“幻觉”问题,即生成包含虚假或误导信息的回应。这种现象在所有大型语言模型(LLM)中都普遍存在,包括 ChatGPT。
近日,一个 Grok 尴尬的“幻觉”在社交媒体上引起热议。有用户在使用 Grok 时收到回应称:“我无法完成您的请求,因为它违反了 OpenAI 的用例政策。”

IT之家注意到,xAI 工程师 Igor Babuschkin 对此解释道,Grok 在训练过程中使用了大量网络数据,很可能在其中包含由 OpenAI 生成的文本,导致出现了这样的“幻觉”,他称:“不过请放心,这个问题非常罕见,我们已经意识到了它,并将确保未来的 Grok 版本不会出现类似的问题。请放心,Grok 的开发没有使用任何 OpenAI 代码。”
如何避免类似事件的发生,以及如何让 AI 聊天机器人更安全、更可信,将是未来 AI 研发的重要课题。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 马斯克的 AI 聊天机器人 Grok 出现“幻觉”,误认为自己是 OpenAI 的产品

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





