美国加州 AI 安全法案将要求 AI 公司采取措施,防止其模型造成“严重损害”,例如开发可能导致大量人员伤亡的生物武器或造成超过 5 亿美元(IT之家注:当前约 35.66 亿元人民币)的经济损失。
这些前员工向加州州长加文・纽森和其他立法者致信称,OpenAI 对该法案的反对令人失望,但并不令人意外。
两名研究人员威廉・桑德斯和丹尼尔・科科塔伊洛在信中写道,“我们(以前)之所以选择加入 OpenAI,是因为我们希望确保该公司在开发的‘强大无比的 AI 系统’的安全性。但我们选择离开,是因为它失去了我们的信任 —— 能够安全、诚实、负责任地开发 AI 系统。”
信中还提到,OpenAI CEO 阿尔特曼曾多次公开支持对 AI 实施监管,但当实际的监管措施准备出台时,他们却表示反对。“在没有充分安全预防措施的情况下开发前沿 AI 模型,会给公众带来可预见的灾难性伤害风险。”
相关阅读:
-
《OpenAI 公开反对美国加州 AI 安全法案》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 前 OpenAI 研究人员警告“老东家”:若 AI 无监管将造成灾难性伤害

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





