
密歇根大学研究人员通过最新研究,揭示了社会和性别角色对大型语言模型(LLM)的影响。这项研究由来自计算机科学与工程系、社会研究所和信息学院的跨学科团队进行。
IT之家从报道中获悉,该研究通过 Flan-T5、LLaMA2 和 OPT-instruct 这三个模型,追踪了 2457 个问题,观察其不同性别角色的回答情况。
研究人员纳入了 162 种不同的社会角色,涵盖了一系列社会关系和职业,并测量了每种角色对模型性能的影响。

表现最好的角色是导师、合作伙伴、聊天机器人和人工智能语言模型。
研究还发现,在提示中指定受众(如“您正在与一名消防员交谈”)的效果最好,其次是角色提示。

这一发现对人工智能系统的开发者和用户都很有价值,用户可以考虑使用 LLM 的社会背景,可以提高 LLM 的有效性。
研究人员分析了 50 个分为男性、女性或中性的人际角色,发现中性和男性角色比女性角色的模型性能更高。
这一发现值得重点关注,表明这些人工智能系统对男性角色和性别中性角色的固有偏好高于女性角色。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 研究发现 AI 模型存在性别偏见:中性 / 男性 LLM 性能优于女性角色

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





