“AI平权”催生存储新需求,曙光存储以“AI加速”破局

“AI平权”催生存储新需求,曙光存储以“AI加速”破局
2025年04月03日 21:27 IT时报

IT时报记者 贾天荣

全球AI技术正经历一场“平权革命”。随着DeepSeek等开源大模型的兴起,AI应用门槛大幅降低,算力需求也逐步从集中式高性能计算中心向边缘场景扩展。

与此同时,存储市场迎来结构性变革:千亿级参数模型训练、千万级并发的实时推理、跨协议的数据流动需求激增,传统存储架构在性能、成本与灵活性上已难以支撑AI发展。

“产业界与学术界已形成共识,存力已成为AI发展的核心瓶颈之一。”曙光存储副总裁张新凤在接受《IT时报》采访时表示。

“平权革命”与存储变革

在张新凤看来,DeepSeek的出现对存储行业而言是“短期利空,长期利好”。从长远来看,AI基础设施将呈现“集中+边缘”结合的模式。全球范围内,超大规模的集中式训练场景仍然不可或缺,而遍布各行各业的推理集群也将大规模兴起。训练任务依赖高性能算力,而推理任务则需要高效的数据访问,这种趋势对存储架构提出更高要求。

从技术演进规律来看,当新技术的应用成本突破某一临界点后,规模化应用会呈指数级增长,推动基础设施的大规模建设。张新凤也指出,“DeepSeek的开源,正处于这个成本临界点,标志着AI基础设施建设的加速。”

当前,美国、日本软银的“星际之门”项目已投资超5000亿美元,法国和中东的AI投资计划也达千亿欧元规模,全球AI基础设施正进入部署高峰期。

与行业普遍关注AI的算力投入,认为提高计算能力就是提升AI性能的关键不同,曙光存储方面向《IT时报》记者表示,真正制约AI发展的瓶颈,已经从算力转向存力。

以GPU集群为例,其造价成本极高,任何算力空载都会造成巨额损失。传统GPU利用率仅在30%-40%之间,企业花费巨资采购高性能计算资源,却因存储性能不足导致大量算力空转,无法充分发挥价值。对此,曙光推出“五级加速方案”,通过数据直通芯片技术,打通GPU、CPU的数据通路,避免算力浪费。“存储在AI基础设施中的占比相对较低,仅为5%-20%,但其优化能够极大提升算力的能效比,对企业而言,这是一种极具性价比的投资。”

“我们看到一个明显趋势,过去许多国内外基于开源存储的产品,在AI高速发展后几乎消失,因为它们已无法满足AI的需求。”因此,曙光在AI加速领域持续升级,以优化存储性能和降低成本。

AI训练效率提升3倍以上、推理零卡顿时延降低80%

3月27日,曙光存储全新升级AI存储方案,秉持“AI加速”理念,面向AI训练、AI推理和AI成本等需求,全面重塑AI存储架构。

据介绍,曙光存储ParaStor F9000专为 AI训练场景量身打造,针对AI训练带来的GPU利用率低、KV Cache、向量数据库存储和检索性能低等问题,升级后的ParaStor可整机柜交付,提供千卡/万卡/十万卡集群整机柜交付方案,轻松容纳DeepSeek-R1这样千亿级参数的大模型,部署时间缩短50%。

性能方面,ParaStor F9000更是表现卓越,拥有500万 IOPS的强大处理能力和190GB/s的高速带宽。借助五级加速技术和秒级弹性扩容功能,可将GPT-4级别模型的训练周期从原本的3个月大幅缩短至1周,加速AI技能迭代。

记者了解到,大模型实时推理往往带来每秒千万级的并发请求,对存储性能要求极高。FlashNexus集中式全闪存储在AI推理领域树立了新的性能标杆,其32控配置可实现超3000万 IOPS的惊人性能,时延低至0.202ms,在SPC-1基准评测中荣获全球第一。

基于国内最新芯片级研发成果,优化从处理器芯片、RDMA网络芯片、PCIe芯片、NVMe控制器芯片的端到端协议路径。微控架构建立无锁化的数据IO“超级隧道”,将写性能提升2倍以上。为AI推理的向量数据库、KV Cache长文本存储提供了更优方案。此外,高性能数据加密、完善的数据保护等技术为用户最关键的私域核心数据资产提供全方位保护。

面对大模型实时推理需求,该产品可“零帧起手”支撑每秒百万级并发需求;聚焦自动驾驶决策实时性需求,可以毫秒级速度加载TB级路况数据;针对金融客户,可在高波动市场环境下稳定处理高频量化交易数据流,让交易更高效、安全。

升级后的ParaStor S6000系列,以1.44PB/框的超大容量和20%成本降低支撑千亿参数归档。单框配置14块NVMe盘和60块SATA/SAS盘,通过冷热数据分层技术和智能数据调度功能,实现动态优化存储资源的分配、跨形态热温冷数据无感流动,提高存储资源的利用率。

通过与2U2N全闪节点的统一管理和使用,利用系统间无缝数据迁移等技术,显著降低使用和运维成本

ParaStor S6000高密存储可满足AI大模型的数据预处理以及模型、参数的归档,高端计算+AI科学计算数据湖应用等场景,显著降低AI大模型应用存储系统的构建成本,是百PB-EB级超大规模AI基础设施的更佳选择。

“技术发展趋势证明,真正能够在AI时代立足的企业,是那些在特定领域深耕并积累核心技术的公司。”张新凤表示。“我们希望成为行业中真正有核心技术积累的企业,发挥应有的作用。”

0条评论|0人参与网友评论
最热评论

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部