其中,名为“Emu Edit”的工具可让用户根据文本输入来修改图片。该功能可通过文本指令来实现对图像局部、全局的精细化控制,包括添加背景、移除背景、替换主体等功能。
Meta 官方表示,与当前市面上大多数生成式 AI 不同,Emu Edit 可精确遵循指令,确保图片中与指令无关的其他元素不受影响,大模型应当仅仅专注于精确修改与要求有关的像素。
IT之家附演示图如下:


另一项工具名为“Emu Video”,使用了与“Emu Edit”相同的基础模型,可根据文本提示和静态图像来生成视频。

不过,Meta 公司并未透露何时发布这两款工具,仅表示目前仅用于基础研究,但其潜在的用例已经“显而易见”:“从艺术总监构思新概念、创作者为最新作品增添活力,到好友分享独特的生日祝福,它都会派上用场。我们认为这是值得庆祝的事情。”
当然,Meta 也强调,这些技术无法取代专业艺术家和动画师,但可以帮助人们以全新的方式来“表达自己”。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » Meta 展示全新 AI 图像编辑工具:文本指令“指哪打哪”,主体背景都能换

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





