感谢IT之家网友 肖战割割 的线索投递!
OpenAI 称,“我们深信前沿 AI 模型的能力将超过目前最先进的现有模型,并可能造福全人类,但它们也带来了越来越严重的风险。”该团队将努力减轻核威胁、生物、化学和放射性威胁等一系列 AI 可能引发的重大风险,以及 AI“自我复制”等行为带来的潜在风险。

OpenAI 表示,公司需要确保拥有高能力 AI 系统安全所需的理解、基础设施。该团队将由原麻省理工学院可部署机器学习中心主任 Aleksander Madry 领导,并将制定、维护一项“风险知情开发政策”,用以概述公司在评估和监控 AI 大模型所做的工作。
IT之家此前报道,非营利组织 AI 安全中心于上月底发表简短声明:“将减轻人工智能带来的灭绝风险,放在和流行病、核战等社会问题同一高度,作为全球优先事项推进”,这项 22 字的倡议已得到了包括 OpenAI 首席执行官山姆・阿尔特曼在内的多位 AI 行业大佬的支持。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » OpenAI 正在组建新团队,以防范 AI 相关“灾难性”风险

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





