
据介绍,相关 JEPA 架构及 I-JEPA / V-JPA 模型主打“预测能力”,号称可以以“人类理解”的方式,利用抽象性高效预测生成图片 / 视频中被遮蔽的部分。
IT之家注意到,研究人员使用一系列经过遮蔽处理的特定视频训练 I-JEPA / V-JEPA 模型,研究人员要求模型利用“抽象方式”填充视频中缺失的内容,从而让模型在填充间学习场景,进一步预测未来的事件或动作,进而达到对世界更深层次的理解。


研究人员表示,这种训练方法能够让模型专注于影片的高层次概念,而“不会钻牛角尖处理下游任务不重要的细节”,研究人员举例“人类观看内含树木的影片时,不会特别关心树叶的运动方式”,因此采用这种抽象概念的模型,相对于业界竞品效率更佳。

研究人员同时提到,V-JEPA 采用一种名为“Frozen Evaluations”的设计结构,即“模型在预训练之后,核心部分不会再改变”,因此只需要在模型之上添加小型专门层即可适应新任务,具有更高普适性。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » Meta 推出 V-JEPA 模型,利用 AI 高效补充视频受遮蔽部分

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





