“我经常以国际原子能机构为例,将其作为处理最强大人工智能系统影响的典范。在部署超级智能或通用人工智能(IT之家注:AGI)之前,建立审计和安全措施至关重要。”
阿尔特曼还提到,一个非常微妙的“社会失衡”就能给 AI 系统带来严重破坏,自己曾为此彻夜难眠。“我对机器人在街上行走的想法不太感兴趣,我更关心非常微妙的社会失衡,即在社会中拥有这些系统,没有特别的邪恶意图,事情却出了大问题。”
然而他还强调,OpenAI 公司这样的人工智能行业不应在制定管理涉及 AI 行业的法规时处于领先地位。“我认为我们仍处于需要进行健康辩论的阶段。”
他认为,AI 将会广泛普及,且价格低廉,成为人类“创造未来的工具”。但与此同时,AI 的全面进步和发展仍需要时间与耐心,“就像手机从原始的移动电话发展到如今的 iPhone 一样。”
此外,阿尔特曼还称当前的世界仍处于 AI 早期阶段,“我们从未见过世界发生很大的变化,我认为原因在于我们目前拥有的技术就像黑白电视一样,还有很长的路要走。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » OpenAI 阿尔特曼称 AI 潜在风险会让人“彻夜难眠”,呼吁建立国际机构监督 AI 发展

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





