计算机算力专题研究:助力数字经济,人工智能开启算力时代

计算机算力专题研究:助力数字经济,人工智能开启算力时代
2022年09月13日 13:24 未来智库官网

(报告出品方/作者:财通证券,杨烨、罗云扬)

1. 算力是数字经济时代生产力

1.1.数据成为经济发展重要生产要素

按照 IDC 总结,全球计算数据的创建与使用总结为三个阶段:

1980 年以前:数据集中在数据中心存储与处理,即使可通过远程访问,终 端计算能力低下,也无法对数据进行深度计算,数据均为商用。

1980-2000:摩尔定律显威,PC 兴起,数据的产生、处理与存储更多流向 终端,同时出现了音乐、电影和游戏的数字娱乐产业。

2000 至今:无线宽带普及推动数据进入云端,将数据与特定的物理设备脱 钩。社交与流媒体的兴起使得数据中心更多承担数据交互与集中计算任务, 而在不断交互过程中数据量高速增长。

数据量呈现指数级增长,企业端占比不断提升。根据中国信通院,到 2035 年, 全球数据量将达 2142ZB(ZB:Zettabyte,1ZB 约十万亿亿字节),是 2020 年所创建数据量的 45-46 倍。而由于进入云时代,数据在本地存储的需求逐步 减少,企业在云端可为客户提供实时的数据和服务。

数据逐渐成为经济发展的重要生产要素。基于云能够快速访问的数据运用方式, 数据日益影响企业和日常生活,例如商业航空旅行、自动驾驶、医疗应用、控制 系统和遥测技术等社会生产力紧密相关的数据占比持续提升。IDC 预计到 2025 年,娱乐相关的消费型数据占比将从 2012 年接近 60%下降至 30%左右,余下 约 70%将是非娱乐化的图像/视频、生产力数据、工业生产等嵌入式数据。

1.2.数据重要性提升,多维数据整合挖掘深度价值,催生算力旺盛需求

重要数据量快速增长。不同数据间的重要性相差较大,例如:医疗类数据重要于 流媒体数据,不同数据运行出现问题所造成的影响亦不同,例如私用 PC 宕机造 成文件丢失和自动驾驶数据错误造成人员伤亡。IDC 预计未来关键数据量增速将 高于数据量总体增长,2025 年需要安全防护的企业经营/医疗记录等数据占比将 达 87%。

单个数据的价值下降,多维数据整合方可挖掘深度价值,进一步催生算力需求。 当前数据指数级增长的同时,数据类型也更加多元化,在交通、工业、商业运营 等领域,少量、单一化的数据的价值较低,只有将大量、多维度的数据进行综合 分析才能产生应有的价值。例如交管领域对于黑车的识别,需要将车辆行驶轨迹、 车辆图像识别、人像识别与对比、车牌登记数据比对等多维度数据进行分析才能 准确筛选。对于庞杂的不同类型数据(尤其非结构化的)统一分析与存储的需求 催生了数据湖概念,同时随着云计算技术的深入应用,带来资源集约化和应用灵 活性优势的云原生概念也产生,大规模集群计算需求旺盛。

全球超级数据中心占比快速提升,算力进一步集中。近五年全球数据中心任务量 增长 135%,大数据挖掘与应用、人工智能深度学习需求旺盛,随着摩尔定律逐 渐走向极限,超级数据中心成为数据中心主要增量。根据 Cisco 数据,全球超级 数据中心打造服务器数量占所有数据中心搭载服务器比例由 2016 年的 27%提 升至 2021 年的 53%。

1.3.算力正成为经济增长主要动力之一

算力已成为数字经济时代的关键生产力要素。在传统的西方经济学理论中,驱动 社会经济发展的生产要素包括了劳动、资本、土地、企业家的才能等。而在一系 列新兴信息数字技术的兴起与广泛应用的数字经济时代中,与计算能力的形成直 接相关的算力资本投入(数据、算力、算法),如同农业时代的水利、工业时代的 电力,已成为数字经济发展的核心生产力,是国民经济发展的重要基础设施。国 务院印发的《“十四五”数字经济发展规划》中也明确提及到 2025 年我国数字 经济核心产业增加值占 GDP 比重将从 2020 年的 7.8%上升到 10%,数字经济 将为经济社会持续健康发展提供持续动力。

中美算力规模全球领先。截至 2021 年底,全球数据中心算力总规模达 521eFLOPS(EFLOPS:每秒进行 10^18 次浮点运算)。中美两国算力规模分 别约为 161EFLOPS 和 140EFLOPS,占全球总算力份额约为 31%和 27%。

计算力和 GDP 增长显著相关。根据 IDC 等机构的研究,全球平均来看,他们构 建的“计算力指数”每提升 1 个点,国家数字经济和 GDP 将分别增长 3.5‰和 1.8‰。同时,“计算力指数”越高,对 GDP 的拉动作用越显著。

1.4.东数西算,数字经济时代新基建启航

大数据时代,算力与数据增长齐头并进。根据《中国算力白皮书(2022 年)》的 数据,2021 年我国算力总规模达到 140Eflops(每秒一万四千亿亿次浮点运算, 包含通用算力、智能算力、超算算力,边缘算力暂未纳入统计范围),全球占比约 为 27%,近五年年均增速超 30%。展望未来,工信部印发的《“十四五”信息通 信行业发展规划》指出 2025 年我国数据中心算力总规模将增长到 300EFLOPS, CAGR 达 22%;另一方面,伴随 5G、人工智能、物联网等技术的应用普及, 数据流量增长速率也在不断加快。根据 IDC 的预测,全球数据总量在 2020 年 将达 50ZB,而这一数据到 2025 年有望达到 175ZB,CAGR 达 28%。与此同 时,根据中央网信办的数据统计,2019 年度中国移动互联网数据接入量为 1,655.50 亿 GB,预计 2024 年将达到 5,680.90GB,CAGR 也高达 28%。因 此,我们认为在当前数字经济大时代下,适度超前建设以数据中心为首的新型基 建具有明确的战略意义。

“东数西算”正式启动,预计每年带动 4000 亿投资。今年二月,国家发展改革 委、中央网信办、工业和信息化部、国家能源局联合印发通知,同意在京津冀、 长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等 8 地启动建设国家 算力枢纽节点,并规划了 10 个国家数据中心集群,标志着“东数西算”工程正 式全面启动。与“西气东输”“西电东送”“南水北调”等工程相似,“东数西 算”是一个国家级算力资源跨域调配战略工程,针对我国东西部算力资源分布总 体呈现出“东部不足、西部过剩”的不平衡局面,引导中西部利用能源优势建设 算力基础设施,“数据向西,算力向东”,服务东部沿海等算力紧缺区域,解决 我国东西部算力资源供需不均衡的现状。“东数西算”工程对我国的长远发展有 重要的意义:

有利于提升国家整体算力水平:通过全国一体化的数据中心布局建设,扩大 算力设施规模,提高算力使用效率,实现全国算力规模化集约化发展。

有利于促进绿色节能:数据中心属于高耗能行业,又被称为“不冒烟的钢厂”。 将数据中心从能耗指标紧张的东部地区迁往清洁能源富集、电力更加廉价的 西部,将大幅提升绿色能源使用比例,降低数据中心运营的成本。

有利于扩大有效投资:数据中心产业链条长、投资规模大,带动效应强。发 改委预计“十四五”期间大数据中心投资还将以每年超过 20%的速度增长, 每年预计各方面投资额达 4,000 亿元。

有利于推动区域协调发展:通过算力设施由东向西布局,将带动相关产业有 效转移,促进东西部数据流通、价值传递,延展东部发展空间,推进西部大 开发形成新格局。

2. 后摩尔时代,算力从 PC 走向 AI 集群

2.1.后摩尔时代,传统计算架构亟待革新

AI 算量需求急剧增加,传统架构难以满足。根据摩尔定律,集成电路上可以容纳 的晶体管数目大约每 18 个月增加一倍,而 AI 训练算量自 2012 年开始以平均 每 3.43 个月翻倍的速度实现指数增长。在芯片制程达到个位数纳米级的当下, 传统芯片算力提升速度难以赶上计算量增速。

下游应用的高景气度和不断衍生的智能化需求,推动芯片革新。中国云计算市场 规模增长迅速,2021 年达到 3229 亿元,近 5 年 CAGR 达 44.6%。云计算作 为人工智能云端训练芯片的主要应用场景,推动了芯片架构迭代。

2.2. AI 算力需求旺盛,GPU 是主流

GPU 是当前主流数据中心端 AI 计算架构。按技术架构分类,AI 芯片可分为图 形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、类脑 芯片。GPU 起初强调图形处理,随着强大的并行计算能力被发掘,逐步进入通 用计算领域;FPGA 以半定制化为特征,注重于服务垂直领域;ASIC 则是针对 客户应用场景需求进行定制;类脑芯片尚处于起步阶段。

智能算力需求旺盛,GPU 充分受益。从市场规模来看,2021 年服务器 GPU 全 球市场规模达到 71.5 亿美元,2019-2021 年复合增速 66%,占服务器整体市 场规模比例快速提升;同期 FPGA 全球市场规模为 7.9 亿美元,相比 2020 年 基本持平;而 ASIC 主要用于终端推理。我们认为,中期看 GPU 仍将是数据中 心端 AI 训练等加速计算的主流芯片,充分受益于智能算力高景气。

2.3. Nvidia&AMD:市值超越 Intel,时代算力从 PC 端走向 AI 集群

Nvidia:2022 年上半年数据中心收入占比超过 50%。受益于智能算力高景气, Nvidia 作为全球 GPU 龙头,数据中心业务占比历年快速提升,由 2014 年的 6.8%,提升至 2022 年上半年的 50.4%,是主要收入增长动力。

AMD:数据中心端发力,抢占 X86 市场。AMD 于 2016 年发布 Zen 架构,相 比 Intel 的 IDM 模式,AMD 的 fabless 模式在当前芯片制程接近极限背景下更 具优势,借助全球领先 foundary 厂领先于 Intel 自身的制程优势,性能持续追 赶。尤其在服务器 CPU 方面,是 AMD 抢占 intel 市场的主要发力点,在 X86 芯片的市场份额持续提升至 2021Q4 的 10.7%。

Nvidia 和 AMD 市值双双超越 Intel,时代算力从 PC 端走向集群 AI 端。得益于 Nvidia 在数据中心市场的强劲表现和 AMD 在服务器 CPU 市场的发力,目前它 们的市值均已超越 Intel,虽然 Intel 目前的收入和利润体量明显高于 Nvidia 和 AMD,但是资本市场给予后两者估值溢价明显,标志着时代算力正从传统的 PC 端走向服务器的 AI 集群,产业浪潮不可逆转。

3. 人工智能开启算力时代

3.1.AI 三要素:数据、算法、算力

AI 行业快速发展,智能算力需求提升。根据使用设备和提供算力强度的不同,算 力可分为基础算力、智能算力与高端算力三大类。随着深度学习技术的快速发展, 以及互联网和云计算时代海量数据和高效计算能力的支撑,计算机视觉技术、语 音技术、自然语言理解技术等人工智能技术取得了突破性进展,并解锁多个行业 的人工智能场景,驱动了人工智能行业相关的计算量快速增长。根据《中国算力 白皮书(2022 年)》的数据统计,2021 年全球智能算力总规模达 113EFLOPS, 占全球总算力规模的 22%。我们认为,伴随人工智能技术的复杂性不断增加,人 工智能计算能力的需求将呈指数级增长。

AI 三要素相互耦合,共同生成 AI 模型。一个传统的 AI 模型包括训练和推断(预 测)两大部分。训练环节指将训练数据(通常为现有的历史数据)输入进算法中, 通过 AI 芯片(GPU、FPGA 等)提供算力支撑,以及数据工程师的分析调参, 最后生产满足特定功能的 AI 应用模型。推断环节指通过向训练完成的 AI 应用模 型中输入实际应用场景中的新数据,并生产对应的推断结果。在这一过程中,数 据、算法和算力扮演着同等重要的角色,三要素的耦合关系是探索 AI 未来发展 道路的重要基础:

数据是 AI 模型的“汽油”:数据是一切人工智能的基础。数据因其可具象性 强,也是最容易被理解的竞争壁垒(特斯拉在自动驾驶数据的积累、科大讯 飞在智慧教育的题库数据积累等)。未来数据的突破口在于 1)数据积累的 行业下沉(智能化渗透率的提升,传感技术的升级等);2)现有数据的打通 (实现将不同行业,政府与企业间的数据互联互通);因此,在特定行业具 备数据积累先发优势和跨行业数据整合能力的公司有望形成保持领先。

算力是 AI 模型的“发动机”:算力是最容易被直观量化的指标(英伟达每年 推出的新 GPU 参数),但也是目前最大的瓶颈。算力的瓶颈并不体现在算 力的绝对大小,而在于实现该算力的成本。特别是在算法场景众多、迭代速 度较快的 AI 领域,如何设计出同时满足通用性和高算力的 AI 芯片仍是当下 炙手可热的话题。因此,具备由单一芯片模式往融合异构多芯片模式发展能 力的公司有望率先受益。

算法是 AI 模型的“大脑”:算法是 AI 实现技术跃迁的根本,也是最难以被 直观理解的部分。从 AlexNet 重新复兴神经网络到 Transformer 开启大模 型时代,人工智能的每一次里程碑事件都伴随着算法层面的突破与创新。往 后展望,一个好的算法除了能更好的完成设定的任务外,还需具备 1)更强 的通用性(激活更多的可用数据);2)更优化的计算原理(减少算力的负担)。 因此,我们认为在 AI 领域具备科研资源和资金实力的公司将有望拔得头筹。

3.2. “大模型”横空出世,人工智能进入算力时代

深度神经网络模型为 AI 行业注入新动能。英国数学家阿兰·图灵在 1950 年提 出了“机器能思考吗”这一跨世纪的命题, 人类从未停止过对智能化的思考与探 索。自 1956 年达特茅斯会议上首次提出人工智能概念以来,人工智能技术与应 用已经发展 60 多年,经历了多次高潮和低谷。过去的十年间,我们有幸见证了 深度学习的兴起为行业的发展注入的惊人的活力:

2012 年 AlexNet(一种卷积神经网络模型)引入了利用 GPU 并行运算, 以压倒性的准确率夺得了当年 ImageNet 图像识别大赛的冠军,带来了深 度神经网络的又一次复兴。

2016 年 DeepMind 开发的人工智能 AlphaGo 打败人类顶尖棋手李世石, 开启了人工智能发展的新纪元。

2017 年 Google 团队提出的 Transformer 模型横空出世,成为了日后自 然语言学习(NLP)、计算机视觉(CV)的架构标准;基于 Transformer 的 预训练模型 BERT 更是将 NLP 模型的精准度和泛化能力带上了新的台阶。

2020 年有 1750 亿参数的 GPT-3(Generative Pre-trained Transformer 3)的诞生,标志着“大模型”正在成为迈向强人工智能的 重要一步。

伴随场景与数据的激增,大模型或许成为规模化创新的基础。大模型指通过超大 规模的参数设置和数据输入,通过大算力和大数据,以及强大的算力支撑与训练, 而得出的基础的、具有通用性的、综合的大模型。大模型浪潮最早起源于预训练 模型,Google 发布的 BERT 模型即是自然语言处理领域最为典型的预训练模 型。OpenAI 则提出了 GPT 模型,尤其是 2020 年发布的 GPT-3 模型参数量 即达到 1750 亿,在全球掀起大模型的浪潮。大模型可以使人工智能具备处理语 言、视觉、机器人、推理、人际互动等各类相关任务的能力。因此这类模型将赋 能各行各业,加快传统行业的智能化转型,在法律、医疗、教育等领域都会带来 积极影响。例如 META 推出的拥有 150 亿个参数的 ESMfold 模型可以在原子大 小的精度上预测蛋白质的三维结构,推测速度比 AlphaFold2 快出一个数量级。 可以说,在 AI 模型开发领域,经历了预训练模型-大规模预训练模型-超大规模 预训练模型的演进。

3.3.异构计算突破算力瓶颈

大模型问世,AI 计算量需求指数增长。如第二章所述,AI 训练算量自 2012 年 开始以平均每 3.43 个月翻倍的速度实现指数增长,但摩尔定律逼近极限,同期 算力增长仅 7 倍,远低于 AI 模型计算量的 30 万倍。由于实现人工智能所需的 深度学习算法需要很高的内在并行度、大量浮点计算能力以及强大的矩阵运算能 力,其与图形渲染有着相似之处,这为使用 GPU 训练深度神经网络打下了理论 基础。自 2012 年 AlexNet 面世之后,GPU 及 AI 加速器(DSA)的广泛应用 使得硬件计算能力的不足得以被快速弥补,人工智能行业迎来了又一次加速发展。

异构计算打破 AI 芯片算力瓶颈。大模型训练、自动驾驶等复杂应用场景对算力 的追求没有止境,尽管过去 10 年晶体管的数量依然随摩尔定律增长,但单核处 理器性能已经出现明显瓶颈,晶体管的数量增长主要来自于核心数量的增加,算 力提升需要寻求新的突破点:

单个处理器的性能提升:目前集成电路制程工艺的边际提升极其困难,考虑 到硅原子的直径约为 0.1nm,在 3nm 制程之后量子隧穿效应(Quantum tunnelling effect)会越来越明显。因此,单纯通过改进工艺以提高晶体管密 度,从而提升芯片性能的方法已难以满足大数据和人工智能时代下的业务规 模爆炸性增长。

处理器的核心数量增加:核心数的增加会提高芯片功耗、成本,并且需要软 件端适配多核。尽管“东数西算”等项目能从宏观层面增加全社会的总算力, 但 AI 芯片大规模落地的前提是满足 AI 场景快速迭代的通用性,否则新增的 算力依然会出现利用率低、成本高。

处理器的灵活度提升:随着算力需求不断攀升,单一计算类型/架构的处理器 无法应对多样的数据处理任务。当前,GPGPU 作为一种异构计算方案,灵活可编程能力与 AI 算法的需求相对匹配,是目前 AI 算力的主流技术路线。 我们认为,随着 Chiplet 技术的逐步成熟,异构并行计算将向架构更加复杂 的超异构计算演进,创造出更加兼顾算力和灵活性的新可能。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

精选报告来源:【未来智库】。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部