在全球AI算力竞赛的焦灼时刻,在阿里系保有充足英伟达GPU库存的条件下,蚂蚁集团于2025年3月24日发布基于国产算力训练的百灵-Ling系列MoE架构大模型,这一动作距离科大讯飞成功在昇腾国产算力集群上实现MoE模型推理方案仅过去13天。
这场战略转向,无疑为国产算力和国产大模型的全国产化带来一剂强心针。
据报道,3月18日阿里巴巴CEO吴泳铭主张在阿里现有业务中全面实现“AI化”。阿里所有部门已被告知,他们2025年的绩效将通过如何利用AI促进增长来评估。时隔一周,阿里系企业蚂蚁集团便发表了AI方面最新进展的论文。
蚂蚁集团Ling团队推出的百灵轻量版参数规模为 168 亿(激活参数 27.5 亿),增强版基座模型参数规模高达 2900 亿(激活参数 288 亿),性能均达行业领先水平。
实验表明,其3000亿参数的MoE大模型可在使用国产GPU的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及MoE 模型相当。
MoE模型训练通常依赖英伟达H100 / H800等高性能GPU,成本高昂且芯片短缺,限制了其在资源受限环境中的应用。直到今年3月,科大讯飞与华为联合团队宣布,成功在昇腾国产算力集群上实现MoE模型的大规模跨节点专家并行推理。
这是继深度求索(DeepSeek)公开MoE训练方案后,业界首个完全基于国产算力的解决方案。
星火大模型自2024年1月发布V3.5版本以来,一直是基于国产算力训练的代表,至今仍是唯一的全栈国产化全民开放大模型。
本次科大讯飞与华为合作,通过算子融合、混合并行策略和通信计算并行优化等一系列创新,使得讯飞星火在国产算力上实现了显著性能提升:单卡静态内存占用缩减至双机部署的1/4,效率提升75%,专家计算密度增加4倍,推理吞吐提升3.2倍,端到端时延降低50%。
科大讯飞称,这一突破性的解决方案也将应用于讯飞星火深度推理模型X1的训练加速,预期训练时推理效率将提升200%。星火X1模型基于华为昇腾910B芯片,以70B参数量,实现了在数学能力上全面对标DeepSeek R1(参数量671B)和OpenAI o1,中文数学任务全面领先的效果。这种"小参数强算法"与"大模型低成本"的互补创新,形成对传统算力范式的降维打击。
美国对华AI芯片出口限制的持续加码,加速了技术迁徙进程,而讯飞与蚂蚁的实践超越了硬件替代逻辑。
讯飞星火验证了国产算力训练MoE架构大模型的可行性,蚂蚁百灵快速跟进取得突破,不仅验证了算力自主的可能性,更揭示了全球AI竞赛规则的深层变革——从硬件性能追逐转向架构创新与场景适配的深度融合,从技术替代逻辑演变为创新范式的定义权之争。








财经自媒体联盟

4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有