群联表示中小型企业在模型微调训练方面面临各种困难:采用云服务不仅昂贵也存在数据隐私的不稳定性;而在本地运行又需要复杂的构建过程,电力需求也不能忽视。
而群联 aiDaptiv+ 方案采用超耐用型 aiDAPTIVCache 固态硬盘,可扩展系统的可用内存容量,容纳更大模型,同时也方便易用。
具体来说,aiDaptiv+ 包含的中间件软件库可将 GPU 显存中不活跃的 AI 模型层切片分离,在 aiDAPTIVCache 缓存固态硬盘上暂放待处理的这些切片,并将 GPU 上已完成的部分与待处理的切片交换。此过程无需对 AI 应用本身进行修改。


群联表示,其 aiDaptiv+ 方案可在一台 4 卡工作站平台中完成 Llama 70b 模型的微调训练,容纳显存总量 7 倍以上的数据。

而为了实现这种显存外数据存储,方案中的固态硬盘必须要有足够高的耐久。
群联此次推出的 aiDAPTIVCache 系列固态硬盘 ai100E,其采用 SLC 闪存,每根容量 2TB,拥有 5 年内 100DWPD(IT之家注:每日整盘写入次数)的写入耐久。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 利用固态硬盘降低 AI 微调训练显存需求,群联展示 aiDaptiv+ 平台

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





