乍看之下,这个一镜到底的视频中,Gemini 模型可发现藏在指定塑料杯内的纸团,或者看出一张“连点成线”的图片画的是螃蟹。但是,谷歌发言人告诉彭博社,这段演示视频是利用镜头中的静止图像帧和文字提示“拼凑”而成的,Gemini 只能对输入的提示和静态图像做出反应。同样,视频中用户与 Gemini 的语音互动也由后期配音完成。

至于视频中的人物说话、绘画、展示物品乃至魔术,似乎也只是为了演示视频而特意安排的。在谷歌官方 YouTube 频道中,谷歌也添加了描述称“为了演示的目的,延迟已经减少,Gemini 的输出也缩短了,以求简洁”。这意味着 Gemini 每次响应所需的时间实际上要长于视频的演示。
此外,谷歌 DeepMind 研究副总裁兼深度学习负责人 Oriol Vinyals 也对这段视频做进一步解释:这段视频展示的是使用 Gemini 构建的多模态用户体验“可能的样子”,是为了激发开发人员的灵感。其称,视频中的所有用户提示和输出都是真实的,为简洁起见进行了缩短。而且,视频中展示的模型为 Gemini Ultra。

据IT之家此前报道,谷歌曾声称 Gemini Ultra 的性能在 32 个广泛使用的学术基准测试中有 30 个都表现出了超越当前时代的“先进结果”,而这些基准测试也是当前 LLM 领域最常用、最泛用的测试。
其中,它以 90.0% 的得分成为第一个在 MMLU(大规模多任务语言理解)上超越人类专家的模型(该测试结合了数学、物理、历史、法律、医学和伦理等 57 个学科)。
Gemini Ultra 还在新的 MMMU 基准测试上表现出了 59.4% 的领先级性能,该测试涵盖了“需要深思熟虑的”不同领域的多模态任务。
明年初,谷歌还将推出全新升级的 Bard Advanced,让用户可以更好地体验到其最好的模型和功能,也就是 Gemini Ultra。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 谷歌发言人承认:Gemini AI 演示视频内容和语音提示均非实时录制

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





