AI普惠平权轮到算力加码,华为云超节点被称为“核弹级”产品

AI普惠平权轮到算力加码,华为云超节点被称为“核弹级”产品
2025年04月14日 12:01 IT创事记

多年以后,当人们回望这一轮人工智能浪潮的演进轨迹,也许会发现2025年是AI范式变革的重要拐点。

与过往的“大力出奇迹”范式不同,以DeepSeek为代表的低成本、高性能开源大模型开启了AI技术普惠平权的新路径,崇尚“大量小专家”的MoE架构也借助工程创新突破了算力瓶颈,“中国方案”有望成为AI应用加速落地的最强动力。

然而,这条路并非一马平川,必须通过算力与算法的协同进化才能迈向更高境界。以MoE大模型为例:早期的工程创新是在传统的8卡GPU服务器上设置更多的专家,虽然可实现较低算力条件下的性能突破,但在训练和推理过程中会因All-to-All通信导致GPU闲置等问题。既然局部的工程创新依然无法完全克服原有算力基础设施的弱点,那么能否在算力架构上另辟蹊径,找到更适配的“终极”解决方案?

发轫于高性能计算领域的“超节点”技术被业界寄予厚望,其在大模型应用的催化下有机会焕发“第二春”。前不久,国际巨头发布的NVL72即是基于“超节点”打造AI超级工厂的典型案例,在引来一片惊呼的同时,更让人感到探索自主创新超节点方案的紧迫性。

特别是在千行万业加速数智化转型、AI推理迅猛爆发的背景下,市场亟需能在普惠平权道路上摧营拔寨的超节点新方案。在近日举办的华为云生态大会2025上,华为云发布基于新型高速总线架构的CloudMatrix 384超节点集群,可为AI推理提供澎湃充足、即开即用的智能算力,为世界构建第二选择,为行业AI应用规模化落地奠定坚实算力基础。

据了解,华为云这一创新架构在规模及性能上处于国际领先水平,同时也是国内唯一正式商用的大规模超节点集群。CloudMatrix 384超节点,被很多企业称之为又一个国之重器、“核弹级”的产品。

普惠平权的“中国方案”由此形成算力与算法螺旋式上升的正反馈,AI推理的大时代将在新的轨道上勇往直前。

进阶“超节点”:超越国际头部厂商的领先性能

从某种意义上讲,打破对单一处理器的“算力依赖”已逐渐成为业界共识。在生成式AI加速渗透的进程中,算力基座的系统性创新变得愈发重要,这也是“超节点”不断进化的底层逻辑。

华为深谙此道,较早就确定了算力战略的方向:基于实际可获得的芯片制造工艺,计算、存储和网络技术协同创新,开创计算架构,打造“超节点+集群”系统算力解决方案,从而长期持续满足算力需求。

此次重磅推出的华为云“CloudMatrix 384超节点”正是相关战略的重大成果,具有极强的示范效应。与国际巨头推出的以GPU为主要引擎的产品相比,华为超节点方案不仅实现单节点规模全球最大、有效算力和可靠性业界最高的卓越突破,而且能以云的方式提供动态组合的算力切片,颠覆了以单台服务器为交付单元的传统云服务模式。

尤值一提的是,CloudMatrix 384超节点具备“高密、高速、高效”的特点,据业内反馈其在算力密度、互联带宽、内存带宽等维度全面关键特性均已超越英伟达NVL72超节点。通过新型高速总线实现384张卡的紧耦合互联,打造成一个超级云服务器,推动算力规模50倍提升;将互联服务器进行统一内存编址,统一标识,高速总线统一通信和消息机制,促成资源互联带宽的10倍增长;基于CloudMatrix的昇腾AI云服务,助力大模型训练作业稳定运行长达40天,且能做到秒级故障监控和在10分钟内恢复训练作业,远超业界平均水平。

针对MoE大模型在动态路由、高通信负载、大规模扩展性等方面面临的严峻挑战,CloudMatrix 384超节点通过高带宽互联、资源池化和智能调度技术,既优化了训练与推理效率,又降低了硬件成本。伴随AI推理需求在各个行业集中爆发,“超节点+低成本、高性能大模型”这对黄金搭档,将为普惠大模型落地和AI应用创新保驾护航。

技术创新+工程创新:攀登AI时代云服务的新高峰

根据Canalys最新发布的研究报告,2024年全球云基础设施服务支出同比增长20%,市场规模达3213亿美元,预计2025年全球云支出将继续增长19%。其中,AI大模型的扩展是核心驱动力,云服务还有巨大的成长空间。

显而易见,AI训练与推理带动算力需求指数级增长,也将引发算力供给侧的变革。如何在充满不确定性因素的复杂环境下,构建AI原生的云基础设施且满足高效多元的算力需求,是当下云厂商必须面对的核心议题。

华为云给出的解题思路是基于“技术创新+工程创新”,构建世界算力“第二级”。以超节点为基础计算单元,华为云打造出AI基础设施平台CloudMatrix,实现从服务器级到矩阵级的资源供给模式转变,开创“以联接换算力,以云服务换资源高效”的先河。作为目前国内率先商用对等架构超节点技术提供算力服务的云厂商,华为云迈出的每一步,都是云服务AI探索之旅的里程碑。

如果说由超节点驱动的算力底座升级是昇腾AI云服务奔赴远大前程的核心基石,那么其在资源调度、推理服务及集群可靠等维度的协同进化,则为应对大模型训练与推理面临的纷繁挑战指明了方向。

在资源调度方面,容器级Serverless算力调度使得高并发应用场景出现时,系统能依据实时的AI业务任务负载,动态地调整算力资源分配,资源利用率提升50%以上;在推理服务方面,服务平台深度融合资源调度优化、弹性推理机制及智能路由等技术,分布式弹性推理服务使MoE+CoT模型推理有效吞吐提高50%;在集群可靠方面,昇腾云脑全栈故障诊断模型升级,基于“1-3-10”标准支持万卡集群故障分钟级感知、定界与恢复,持续增强AI算力底座的高可用性。

超节点×全家桶:构建行业数智化跃迁的黑土地

不难看出,当超节点技术与数据中心充分融合,通过云服务的形式对外提供领先性能和可靠性的AI算力,将释放出前所未有的能量。对行业客户而言,自建数据中心的前期投入和运维成本都很高,且AI技术更新迭代速度更快,企业很容易陷入投资浪费或需求无法满足的窘境,因此选择华为云这样的合作伙伴当属明智之举。

事实上,超节点技术扮演着纲举目张的角色,华为云还能给行业客户带来更多价值。基于昇腾AI云服务,华为云可为客户提供覆盖芯片、框架(MindSpore)、工具链(ModelArts)的自主创新全栈服务,并借助从算力到大模型再到应用生态的全链智能生产线,全方位加速行业智能化跃迁。

值得关注的是,在华为云生态大会2025上,除昇腾AI云服务升级版外,GaussDB数据库、软件开发生产线CodeArts、云原生安全体系、数字内容生产线MetaStudio等产品也完成智能化升级,华为云“AI全家桶”的综合竞争力日益凸显。

与此同时,众多客户分享了与华为云携手把握AI时代新机遇的案例,表明这片生态沃土正进入收获期。其中,硅基流动率先上线CloudMatrix 384超节点昇腾AI云服务,实测显示在保证单用户20 TPS水平前提下,单卡Decode吞吐突破1920 Tokens/s,可比肩H100部署性能;同时,经过主流测试集验证及大规模线上盲测,在昇腾算力部署 DeepSeek-R1的模型精度与DeepSeek官方保持一致。

新浪在现场也分享了基于DeepSeek的产品升级和创新,比如活跃在微博评论区、“吃瓜第一线”的“评论罗伯特”,就跑在华为云昇腾AI云服务的算力基座上。微博COO、新浪移动CEO、微博技术委员会主席王巍还特别肯定了华为云弹性扩容能力,能让微博在热搜流量高峰也不“崩”——“华为云的云服务能实现30秒内扩充八千核,帮助我们在热点来临的时候,迅速弹性扩容,满足热点时期需要的巨大算力需求”。

站在更长远的视角,超节点技术这样的世界级创新还有很长的路要走,AI全家桶牵引的生态系统也会持续演进。在千行万业数智化升级的黑土地上,华为云已和伙伴们播撒下希望的种子,满园春色的景象值得期待。

0条评论|0人参与网友评论
最热评论

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部