
IT之家从新闻稿中得知,这款 AI 模型支持英语、西班牙语、德语、意大利语、法语等 7 种语言,拥有“体积小、性能高效”特点,并号称在“安全透明的环境下训练而成”。
Stability AI 声称,这款 Stable LM 2 1.6B 模型在大多数基准测试中均优于其他参数低于 20 亿个的小语言模型,在此前测试中已经胜过微软的 Phi-1.5 (1.3B) 和 Phi-2 (2.7B)、TinyLlama1.1B 及 Falcon 1B。



此外,Stability AI 声称这款模型硬件门槛较低,可以在低功耗设备上稳定运行,旨在让开发人员和爱好者能够快速进行实验和迭代。
不过新闻稿中同时提到,由于 Stable LM 2 1.6B 是一款小模型,因此可能会出现“高幻觉率”等潜在问题,因此使用这款模型的用户必须为这款模型负责。
目前相关模型已经发布于 Hugging Face ,需要 Stability AI 会员资格,感兴趣的小伙伴可以点此访问模型页面。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » Stability AI 推出 Stable LM 2 1.6B 小语言模型:体积更小、性能更高效

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





