
报告中提及了两个真实案例,其中一个通过 AI 模拟受害者亲人,表示因某些事情急需要钱;另一个通过 AI 模拟女儿,向其母亲勒索赎金,但事实上她的女儿并未被绑架。
由于 AI 语音克隆工具非常便宜且可用,因此恶意方可以快速轻松地创建语音克隆。他们获得样本音频的方式是从人们在社交媒体上分享他们的声音。你在网上分享你的声音越多,威胁者就越容易找到并克隆你的声音。


IT之家附报告内容如下:
-
语音克隆工具的准确率高达 95%
-
77% 接到 AI 诈骗电话的人出现经济损失
-
超过三分之一的人损失超过 1000 美元
-
7% 的人被骗了 5,000 到 15,000 美元
-
在美国有 11% 的人损失了 5,000 美元至 15,000 美元
-
AI 诈骗在 2022 年窃取了 26 亿美元
感兴趣的用户可以点击 [PDF],访问原文报告。
未经允许不得转载:新聚网 » AI 语音诈骗日益猖獗:实现 95% 模拟人声、77% 接通者遭经济损失

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





