
如此一致性和质量,再次点燃了网友们对 AI 视频生成的热情:谷歌加入战局,又有好戏可看了。

不止是文生视频,Lumiere 把 Pika 的“一键换装”也复现了出来。

左谷歌右 pika,同样是选中区域一句话完成视频编辑,你 pick 哪一边?
让图片中静止的火焰跃动起来,也同样一选就能完成:

还有图片转视频:

视频风格化:

总之就是主打一个质量又高又全能。
更多细节,我们论文扒起~
用于视频生成的时空扩散模型
Lumiere 旨在解决以往视频生成中存在的几个关键问题:
-
真实性
-
多样化
-
运动的连贯性
在此前的方法中,常见的做法是,扩散模型先生成一些稀疏的关键帧,而后通过一系列时间超分辨率(TSR)模型来填补关键帧之间的空白,接着再用空间超分辨率模型获取高清视频结果。
可以想见,在全局连贯性上,这样的做法存在先天的缺陷。
Lumiere 的创新点在于,提出了时空 U-Net(STU-Net)架构:将视频在空间和时间两个维度同时进行下采样和上采样,在网络的中间层得到视频的压缩时空表示。

具体来说,基于这一架构,模型能够一次性生成视频中的所有帧 —— 这也就提升了生成视频的连贯性。
同时,因为大部分计算发生在压缩后的表示上,STU-Net 能有效减少计算量,降低对计算和内存的需求。

另外,为了提升视频的分辨率,研究人员使用多重扩散(MultiDiffusion)技术,通过线性加权空间超分辨率网络来处理重叠时间窗口带来的边界伪影等问题,从而能将生成画面融合为一个整体,得到连贯、高清的视频效果。
时长和分辨率方面,Lumiere 能输出 1024×1024、16fps 下长 5 秒的视频。
研究人员提到:
5 秒已经超过了大多数视频作品中的平均镜头长度。
值得一提的是,得益于时空 U-Net 架构端到端全帧率视频生成的能力和高效计算,Lumiere 灵活可扩展,可以轻松应用到下游任务中,包括文生视频、图生视频、视频风格化、视频编辑修复等等。

实验结果
研究人员将 Lumiere 与其他文本-视频生成模型进行了实验对比。
首先来看人类用户的判断。

实验设计是这样的:志愿者会同时看到一对视频,一个来自 Lumiere,另一个来自其他基线模型。志愿者被要求从中选出视觉质量、动态效果更好,更符合文本提示的视频。

研究人员收集了大约 400 份反馈,结果显示,在视频质量、文本匹配度方面,Lumiere 超越了 Pika、Gen2、Imagen Video、SVD 等一众顶级视频生成模型。
同时,在 UCF101 数据集(动作识别数据集)上,与 MagicVideo、Make-A-Video、SVD 等模型相比,Lumiere 取得了具有竞争力的 FVD 和 IS 指标。

网友:谷歌,模型呢?
效果很惊艳,网友很兴奋,但桥豆麻袋……
这次,谷歌依然只放出了论文,没有试玩,更没有开源。
这种似曾相识的操作,把人快整麻了:
视频很不错,但是谷歌,你又不打算发布任何代码、权重,也不提供 API 了,对吗?

还有人想起了 Gemini 发布时那个造假的小蓝鸭视频……

那么,这波你还会看好谷歌吗?
论文地址:
-
https://arxiv.org/abs/2401.12945
项目地址:
-
https://lumiere-video.github.io/#section_video_stylization
本文来自微信公众号:量子位 (ID:QbitAI),作者:鱼羊
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 一句话让小姐姐为我换了 N 套衣服,谷歌卷出视频生成新高度,网友:竞赛加码

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





