从纸面到可用再到好用:智能算力如何完成关键的“三级跳”?

从纸面到可用再到好用:智能算力如何完成关键的“三级跳”?
2024年09月30日 14:01 IT创事记

如果将整个数字经济领域比作一片森林,那么通用算力就是数十年来滋养众多树木的庞大根系。如今,“森林”的生态系统发生剧烈变化,“根系”的结构也随之加速演进。

在AI大模型的呼风唤雨下,智能算力迅猛崛起,其发展势头甚至超越了通用算力。根据中国信通院发布的报告,国内智能算力占整体算力规模的比例将从2023年的25.4%增长至2025年的35%,智能算力今后五年的平均增速远高于通用算力。

然而,与新生事物的演变轨迹类似,智能算力在惊艳亮相之后,也面临成长的烦恼。GPU堆叠起来的“纸面富贵”并不能解决业界对智能算力的饥渴,高昂的训练成本和巨大的能耗压力让很多行业客户望而却步,大模型落地与AI应用开花的愿望更是遥不可及。

显而易见,从纸面到可用再到好用,是智能算力必须完成的“三级跳”,其对AI产业的全面渗透和数字经济的整体跃迁都将产生深远影响。这是步步惊心的探险之旅,既需要领先的算力产品与服务供应商打破坚冰,又离不开智能算力产业链各环节协同突围。

近日,以“聚智向新 算领未来”为主题的2024中国算力大会在河南郑州隆重举办。来自算力、芯片、基础电信领域的企业代表与国际组织、科研院所专家深入探讨智能算力的发展前景,并通过创新成果展览展示、热点话题论坛研讨等方式探索智能算力的进化路径。

作为国内算力生态的领军者,坐镇“主场”的超聚变直面行业痛点,从产品打造、联盟构建、方案推进等维度全方位发力,为智能算力迈上更高台阶提供鼎力支撑,助力“三级跳”的终极目标早日实现。

扫除最大的“拦路虎”:液冷引领智能算力绿色突围

在智能算力迈向可用、好用的道路上,有一只最大的“拦路虎”——AI大模型对高性能算力的追求永无止境,但由此衍生的高能耗问题犹如“阿喀琉斯之踵”,随时可能让智能算力变成“销金怪兽”。

相关统计显示,预计到2035年,数据中心用电量约为2020年的3倍,将占全社会总用电量的5%~7%,碳排放增幅约为103%。探索绿色节能的发展路径迫在眉睫,而液冷无疑会担当重任。

对转型中的数据中心和新建智算中心而言,全面采用液冷解决方案亟需产品层面的锐意创新。在中国算力大会上,超聚变的FusionPoD for AI新一代全液冷整机柜GPU服务器获评“年度重大突破成果”,实现一个重构和两个核心特性的升级——整机柜一套硬件单元达成东西方算力的即插即用,零风扇静音的全线运行在满足制冷PUE小于1.1的基础上进一步降低I级功耗难度,免二次侧管路部署的极简方式则让液冷更容易在数据中心落地生根。

据了解,FusionPoD for AI整机柜液冷服务器已得到广泛应用,标准液冷服务器完成规模部署70000+节点,备受行业客户青睐。例如:超聚变与浙江电信联合创新,基于架构开放和多算力兼容,打造端到端的数据中心液冷解决方案,助力浙江电信达成极致能效和超低PUE。

值得关注的是,应对高能耗挑战并非一日之功,液冷解决方案的加速渗透亦不可能一蹴而就,需要更多力量持续投入。正是在这样的背景下,由超聚变牵头发起的液冷AI开放联盟应运而生,致力于构建标准化的智算底座,让行业客户能更快、更易、更好地获取和使用AI算力;产业伙伴还可以共同定义智算新接口,推动智能算力开辟广阔天地。

站在更长远的视角,未来三年,基于液冷AI开放架构的算力将从63 PFlops/柜增长至360 PFlops/柜,高密算力驱动网络互连单链路速率从56 Gbps提升至224 Gbps,数据中心PUE 会由1.2无限趋近于1,整机柜形态也将从高密风液混合迈向全液冷单柜及多柜超节点。从这个意义上讲,液冷AI开放联盟任重而道远,多方合力才能使命必达。

驱动大模型应用真正落地:智能算力多管齐下构建新底座

扫除了最大的“拦路虎”,智能算力的进化之旅也并非一马平川。AI大模型的不断演进对算力底座提出更高要求,智能算力迈向可用、好用的新境界殊为不易。

从供需角度看,进入万亿参数时代的AI大模型对算力需求达到每两年750倍的指数级膨胀,而硬件算力供给仅实现每两年3倍的线性增长,供需明显失衡;从应用层面看,大模型正从通用领域逐步转向企业生产系统,“大力出奇迹”的算力叠加模式已无法满足行业客户的现实需求。

面对上述新挑战,智能算力必须另辟蹊径,探索系统创新和算效提升的最佳方式,并显著降低行业客户大模型训练和推理的门槛,让纸面算力真正转化为可用、好用的智能算力。

作为国内智能算力领域的开路先锋,超聚变多管齐下,以原生液冷整机柜服务器和XaaS算网融合平台为重构基础设施的利器,并通过布局双生态产品和AI调优技术跨越生态裂谷,再借助训推超融合一体机及对OT场景的深耕促进行业落地。

尤值一提的是,针对智能算力算效不高的痛点,超聚变推出独具特色的AI Space大模型加速引擎,持续构建模型迁移、适配和调优能力,全面提升智算效能,为AI大模型“飞入寻常百姓家”创造了必要条件。

拥有“敲门砖”只是第一步,后续还要化解AI大模型训练与推理过程中的诸多难题。在2024中国算力大会上,超聚变超融合训推一体机获评“DC Tech创新先锋”,其集成算力基础设施、虚拟化/容器平台、AI模型调优工具链、模型应用为一体,实现开箱即用,支持五大资源池的全融合轻量化部署,并基于全栈大模型使能工具推动AI快速迭代,借助预集成预验证模型应用实现全生命周期管理。

不容回避的是,当下AI应用仍处于初期发展阶段,要从小范围试点走向规模化落地,尚需在算力、模型、应用等维度协同发力。超聚变推出FusionOne AI大模型解决方案,加速缩短从算力到应用的距离——在算力层,兼容多元AI算力、异构算力池化,助力推理基建一次投资、持续演进;在模型层,测试、联调、发布、部署、管理一站式模型集成,算子加速让模型使用无忧;在应用层,数据工程、知识库、插件等全周期AI工具链及专业服务团队,使能 AI融入和重构现有业务。

目前,FusionOne AI大模型解决方案已覆盖万+合作伙伴、百万+代码,实现80%+效率提升。在2024中国算力大会上,超聚变还携手百度智能云、中科云从、郑州云海、杉数科技、视联动力联合发布FusionOne AI大模型解决方案,为AI在政法、供应链、教学实训、企业办公等场景的应用保驾护航。

在智能算力的厚雪长坡上持续奔跑

不难看出,智能算力是厚雪长坡的超级赛道,已有领跑阵营率先出发,在人迹罕至的区域树立起里程碑,为跨越下一个巅峰奠定基石。

扎根于中原大地的超聚变堪称本届算力大会的东道主,其展现出的行业领军者风范和强大的综合实力令人刮目相看。

这一方面体现在众多前沿“明星”算力产品及解决方案重磅亮相,除前面提到的智能算力硬核科技外,超聚变依托“AI+数据+安全”的技术重构,面向城企数智产业场景展示的一体化安全解决方案亦颇受瞩目;另一方面,牵头成立液冷AI开放联盟、联合发布大模型推理解决方案,是超聚变在AI新时代扮演引领者角色的重要信号,其将与更多的同路人共赴远大前程。

据IDC咨询预测,全球 智能算力市场规模将从 2022 年的195亿美元增长到 2026年的 346.6 亿美元,市场前景相当可观。坚定双生态、南北向安全异构算力发展战略的超聚变将在智能算力的旷野中持续奔跑,顶峰相见的日子也许并不遥远。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部