感谢IT之家网友 嗯呢嗯呢 的线索投递!



IT之家今年 5 月报道,OpenAI 首席技术官穆里・穆拉蒂(Muri Murati)在演讲中表示:
在 GPT-4o 中,我们训练了跨文本、视觉和音频的端到端全新统一模型,这意味着所有输入和输出都由同一个神经网络处理。
由于 GPT-4o 是我们第一个结合所有这些模式的模型,因此我们在探索该模型的功能及其局限性方面仍处于起步阶段。
OpenAI 公司原计划今年 6 月底,邀请一小部分 ChatGPT Plus 用户测试 GPT-4o 语音模式,但官方在 6 月宣布推迟,表示需要更多时间打磨该模型,提高该模型检测和拒绝某些内容的能力。
根据此前曝光的信息,GPT-3.5 模型的平均语音反馈延迟为 2.8 秒,而 GPT-4 模型的延迟为 5.4 秒,因此在语音交流方面不太优秀,而即将推出的 GPT-4o 可以极大地缩短延迟时间,近乎无缝对话。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 开启无缝 AI 语音聊天,OpenAI 下周开始向 ChatGPT Plus 用户推出 Alpha 版 GPT-4o 语音模式

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





