马斯克的 AI 聊天机器人 Grok 出现“幻觉”,误认为自己是 OpenAI 的产品

然而,就像所有 AI 聊天机器人一样,Grok 也存在“幻觉”问题,即生成包含虚假或误导信息的回应。这种现象在所有大型语言模型(LLM)中都普遍存在,包括 ChatGPT。

近日,一个 Grok 尴尬的“幻觉”在社交媒体上引起热议。有用户在使用 Grok 时收到回应称:“我无法完成您的请求,因为它违反了 OpenAI 的用例政策。”

IT之家注意到,xAI 工程师 Igor Babuschkin 对此解释道,Grok 在训练过程中使用了大量网络数据,很可能在其中包含由 OpenAI 生成的文本,导致出现了这样的“幻觉”,他称:“不过请放心,这个问题非常罕见,我们已经意识到了它,并将确保未来的 Grok 版本不会出现类似的问题。请放心,Grok 的开发没有使用任何 OpenAI 代码。”

如何避免类似事件的发生,以及如何让 AI 聊天机器人更安全、更可信,将是未来 AI 研发的重要课题。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

未经允许不得转载:新聚网 » 马斯克的 AI 聊天机器人 Grok 出现“幻觉”,误认为自己是 OpenAI 的产品

赞 (0) 打赏