该模型名为 Segment Anything Model(SAM),其数据集名称为 Segment Anything 1-Billion mask dataset(SA-1B),Meta 官方表示这是有史以来最大的分割数据集(Segmentation Dataset)。

IT之家从 Meta 官方新闻稿中获悉,SAM 模型可应用于各种领域,用于查找和分割图像中的任何对象。
开发者可以在该模型的技术上,开发出功能更强大、影响范围更广的人工智能。在虚拟现实(VR)和增强现实(AR)场景中,可以根据用户的目光,来交互显示对象的相关信息。

相关论文:https://ai.facebook.com/research/publications/segment-anything/
新闻稿:https://ai.facebook.com/blog/segment-anything-foundation-model-image-segmentation/
演示页面:https://segment-anything.com/
未经允许不得转载:新聚网 » Meta 发布 AI 模型 SAM,可准确识别图片中的对象

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





