
据悉,这款 L40S GPU 搭配最新发布的 OVX 服务器,可适用于 AI 大模型训练和推理、三维设计、可视化、视频处理、工业数字化等多种用途,相比 A100 GPU,这套“相得益彰”的 L40S 系统能够“增强生成式 AI、图形和视频处理能力,并满足不断增长的算力需求”。
IT之家经过查询得知,L40S GPU 是英伟达此前 L40 GPU 的升级版本,配备 48GB GDDR6 ECC 显存,该 GPU 基于 Ada Lovelace 架构,搭载第四代 Tensor Core 和 FP8 转换引擎,运算速度是上一代的 5 倍。但依然不支持 NVLink。
英伟达声称,L40S 的生成式 AI 推理性能比 A100 高 1.2 倍,训练性能高 1.7 倍,英伟达表示,对于“具有数十亿个参数和多种数据模式的复杂 AI 工作而言”,L40S 的效能更加突出。
英伟达表示,英伟达 L40S GPU 将在今年秋季上市,每台英伟达 OVX 服务器系统最多可搭载 8 个 L40S 加速卡,不过英伟达并没有透露该 GPU 的定价。
英伟达同时表示,华硕、戴尔、技嘉、HPE、联想、QCT 和美超微等厂商,将“很快推出”搭载 L40S GPU 的 OVX 服务器系统。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 英伟达发布 L40S GPU:AI 推理性能较 A100 高 1.2 倍

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





