近年来,中国科技巨头在人工智能领域的资本开支显著增加,标志着行业进入高速发展阶段。中金公司研报指出,国内头部云服务提供商(CSP)的资本开支已进入上行周期,预计AI驱动下,服务器、交换机、光模块等硬件供应商将直接受益。
与此同时,海外科技巨头的资本开支同样激增,2025年Meta、谷歌、亚马逊和微软的合计资本支出预计达2971.95亿美元,同比增长36.8%。尽管国内厂商的资本开支增速(19.1%)略低于海外,但凭借低基数和政策支持,中国云厂商的长期增长空间更为广阔。
中国云市场的增长核心在于智能算力的爆发。2023年全球智能算力规模达335EFLOPS,增速高达136%,远超通用算力。随着大模型的快速迭代,算力需求从训练向推理扩展,进一步推动数据中心向“智算中心”升级。
然而,高算力伴随高能耗问题。单台AI服务器功耗可达5-10kW,集群化部署后机柜密度普遍超过40kW,英伟达GB200液冷机柜甚至达120kW7。传统风冷技术能效比(PUE)高达1.5-1.6,难以满足需求,而液冷技术可将PUE降至1.2以下,成为绿色转型的关键。
液冷技术凭借高效散热和节能优势,正快速取代传统风冷方案。据IDC预测,中国液冷服务器市场规模将以47.6%的年复合增长率扩张,2028年有望达到102亿美元。政策层面,国家明确要求新建数据中心PUE值低于1.3,进一步加速液冷技术的普及。
液冷技术的推广依赖芯片、服务器、冷却液等环节的协同创新。预计2023-2025年,中国AI服务器液冷市场规模年复合增长率达21.5%,2025年突破106亿元。同时,边缘计算与5G的融合将拓展液冷技术的应用场景,例如低时延要求的自动驾驶和工业物联网。
中国AI资本支出与云业务的快速增长,正在重塑全球科技竞争格局。液冷技术作为支撑高密度算力的关键基础设施,将在政策、资本和技术的三重驱动下,迎来爆发式增长。兰洋科技将抓住技术迭代与国产替代的窗口期,构建从芯片到服务器的全链条竞争力,在AI时代的散热革命中占据先机。



4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有