TeleAI 和智源研究院基于模型生长和损失预测等技术,Tele-FLM 系列模型仅使用了业界普通训练方案 9% 的算力资源,基于 112 台 A800 服务器,用 4 个月完成 3 个模型总计 2.3T tokens 的训练。模型训练全程做到了零调整零重试,算力能效高且模型收敛性和稳定性好,Tele-FLM-1T 版本即将开源。
目前,TeleFLM 系列模型已经全面开源了 52B 版本,核心技术 (生长技术、最优超参预测)、训练细节 (loss 曲线、最优超参、数据配比和 Grad Norm 等) 均开源,开源模型下载量过万,积累超 40 万用户。
此外,中国电信在某市民生诉求场景项目上,通过引入 TeleChat-52B 模型能力,整体应用效果提升 40%,达到行业领先水平。
IT之家附 Tele-FLM-52B 版本开源地址:https://huggingface.co/CofeAI/Tele-FLM
Tele-FLM-Chat 试用 (纯模型单轮对话版) 地址:https://modelscope.cn/studios/FLM/ChatFLM
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 中国电信发布全球首个单体稠密万亿参数语义模型 Tele-FLM-1T

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





