
IT之家附 Gen-3 Alpha 官方网站:https://runwayml.com/blog/introducing-gen-3-alpha/
Runway 表示,与其之前的旗舰视频模型 Gen-2 相比,该模型在生成速度和保真度方面有了“重大”改进,并且对生成视频的结构、风格和运动提供了细粒度的控制。Gen-3 将在未来几天内向 Runway 订阅用户提供,包括企业客户和 Runway 创意合作伙伴计划中的创作者。

Runway 联合创始人 Anastasis Germanidis 表示,Gen-3 的视频生成时间明显快于 Gen-2。生成一个 5 秒的片段需要 45 秒,生成一个 10 秒的片段需要 90 秒。

Runway 表示,Gen-3 Alpha 有以下特点:
-
高保真视频:可生成接近真实世界质量的视频内容,具有足够的细节和清晰度。
-
精细动作控制:模型能够精确控制视频对象的动作和过渡,实现复杂场景的流畅动画。
-
逼真人物生成:可生成具有自然动作、表情和情感的逼真人类角色。
-
多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。
-
专业创作工具:支持运动画笔、相机控制和导演模式等专业创作工具。
-
增强安全:引入新的内部视觉审核系统和 C2PA 标准,确保内容的安全性和可靠性。
-
高质量训练:使用高描述性的、时间密集的字幕进行训练,使模型能够理解和生成具有丰富时间动态的视频。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » Runway 发布第三代视频生成模型,90 秒生成 10 秒片段

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





