
麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)最新研发了名为 MAIA 系统,可以使用视觉语言模型来自动执行各种神经网络可解释性任务。
MAIA 的全称是 Multimodal Automated Interpretability Agent,直译过来为“多模态自动可解释性代理”,主要利用视觉语言模型,自动执行各种神经网络可解释性任务,并配备了在其他人工智能系统上进行实验的工具。
研究论文的共同作者,来自 MIT CSAIL 的博士后 Tamar Rott Shaham 表示:
我们的目标是创建一个能够自主进行可解释性实验的人工智能研究人员。现有的自动可解释性方法只是在一次性过程中对数据进行标注或可视化。
另一方面,MAIA 可以生成假设,设计实验对其进行测试,并通过迭代分析完善自己的理解。
通过结合预先训练好的视觉语言模型与可解释性工具库,我们的多模态方法可以在特定模型上组成和运行有针对性地实验,来响应用户的询问,不断完善其方法,直至能够提供全面的答案。
该自动代理被证明能够完成三项关键任务:
-
可以为视觉模型内部的各个组件贴标签,并描述激活这些组件的视觉概念
-
可以通过去除无关特征来清理图像分类器,使其对新情况更加稳健
-
还可以寻找人工智能系统中隐藏的偏差,帮助发现其输出中潜在的公平性问题。
MAIA 可以通过生成假设、设计实验来测试假设,并通过迭代分析改进其理解,从而解释人工智能模型的内部机制,帮助我们了解人工智能模型如何运作,并探究其安全性和偏差。
IT之家附上参考地址
-
MIT researchers advance automated interpretability in AI models
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » MAIA 新系统亮相:洞悉 AI 模型内在机制,审查其安全性

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





