GTC 2021,Grace CPU暴露英伟达的野心?

GTC 2021,Grace CPU暴露英伟达的野心?
2021年05月04日 21:13 微型计算机官方微博

GTC是英伟达一年一度的技术盛会。在今年4月13日的GTC上,英伟达CEO黄仁勋依旧在厨房、依旧穿着皮衣面向全球用户进行着网络直播。不过和2020年“端出来”一整盘A100相关GPU不同的是,今年的GTC 2021,黄仁勋“端”出来的是ARM架构的CPU、数据加速DPU以及面向汽车驾驶的SoC等产品。尤其是CPU的发布,迎来业内一片讨论热潮。这一次英伟达打算做什么?ARM架构的CPU登场,意味着英伟达计划和英特尔正面厮杀了吗?

英伟达一直是一个锐意扩张的企业。从GPU起家,随后进入图形计算、视觉计算市场,在多年耕耘后,终于乘上了AI计算的东风。现在的英伟达已经发展成为一家以人工智能计算为主,控制了大部分视觉计算市场和资源,并逐渐进入服务器、HPC市场的超大规模企业。其股票也从早期的数美元,一路暴涨至近期的600美元左右,公司市值也已经逼近4000亿美元,远远超过市值2800亿美元,拥有全产业链、全系列制造技术的英特尔,风头无两。

这些数据和成就的背后,英伟达锐意进取的态度和不断扩张的商业手段是关键。就在最近的2020年,英伟达宣布将收购ARM,希望借此进入移动GPU、移动CPU以及ARM相关处理器市场并掌控移动计算和其延伸产业的发展方向。虽然这项收购目前被包括美国、英国企业在内的多家企业明确反对,却也没有影响到英伟达和ARM越来越深入的合作,并且合作的结果很快也显现出来。

▲英伟达如果成功收购ARM,将建立起又一个巨无霸产业体系,但是现在看起来这个并购的确路阻且长。

在笔者看来,在2021年的GTC大会上,英伟达的最大新闻并不是发布了DPU和全新面向汽车行业的SoC,而是带来了代号为“Grace”的CPU产品(后文简称Grace CPU)。这款产品将用在英伟达即将推出的数据中心产品中,并搭配英伟达下一代GPU产品,实现英伟达在数据中心、HPC以及计算设备上的CPU+GPU“大一统”。

▲GTC 2021上,英伟达又发布了大量的新品。

Grace CPU的发布,在业界迅速掀起了巨大的波澜。英伟达的股价从发布会之前的550美元左右一举冲上了630美元。与此对应的是英特尔的股价大跌7%,AMD的股价也受到了影响。部分市场分析人士也认为英伟达的Grace CPU是对英特尔的正面冲击。那么,事实真的是如此吗?英特尔是否真的危险了呢?

▲发布会后英伟达股票一度冲高至645美元以上,本文截稿前回落至594美元。

Grace CPU:从发布会说起 

要明确Grace CPU的影响,可以从现有的资料和情况进行分析。在GTC 2021上,英伟达提到Grace CPU将用于“计算领域的细分市场”;Grace CPU采用的是“Arm Neoverse”内核,其CPU在SPECrate2017_int_base基准测试中的分数超过了300分;Grace CPU和GPU的连接部分则采用了第四代NVLink,CPU到GPU的带宽超过900GB/s;内存则采用的是LPDDR5。英伟达表示,Grace CPU将搭配英伟达的GPU,配合瑞士国家计算中心建造一个算力可达20Exaflops的超算。另外,美国洛斯阿拉莫斯国家实验室也在考虑使用Grace CPU和GPU搭建全新的超算系统。

▲英伟达在发布会上为不同类型的计算所需要的硬件做了分类

根据英伟达在本次大会后发布的白皮书,我们可以进一步分析:Grace CPU所使用的“Arm Neoverse”应该不是现在ARM发布的版本,而是采用下一代Armv9指令集的新Neoverse架构,这也和Grace CPU计划在2023年初上市在时间上相吻合。结合ARM在前段时间刚刚公布了全新的Armv9架构,可以确定Grace CPU肯定将引入Armv9指令集新加的大量功能。根据ARM官方内容,Armv9指令集主要是增强面向矢量、机器学习和数字信号处理器的相关内容,这和英伟达在Grace CPU上的诉求是高度相似的。

▲Grace CPU是本次发布会舆论关注的焦点。图中左侧芯片为Grace CPU示意图。
▲Armv9指令集不仅局限于传统的移动设备上,包括PC、超算以及服务器集群都可以采用该指令集,其用途也获得了极大拓展。

另外,英伟达在随后的新闻稿中也提到,Grace CPU是高度专业化的、面向巨型人工智能和HPC的产品,可以训练拥有超过一万亿个参数的NLP模型。英伟达还提到“今天最大的人工智能模型包括数十亿个参数,并且每两个半月翻一番。训练它们需要一种新的CPU,可以与GPU紧密结合,消除系统瓶颈”。

俗话说,听话听音。虽然英伟达在发布会上并没有透露太多Grace CPU的信息,但是英伟达还是带来了很多关键点,比如Grace CPU面向的是一个比较窄且专业的领域、对带宽的需求是极其巨大,其本身性能表现比较2021年的产品还是可以的,已经逼近AMD EPYC 7763这种当前x86架构下最强的CPU,但考虑其2023年才发布,这个诉求也并不夸张。显然,Grace CPU是用来帮助英伟达解决一个棘手问题的产物,解决这个问题可能并不会针对谁,但它带来的影响和余波却真的会影响到现在的行业格局。

▲早在2008年,英伟达就推出了基于ARM架构,适用于移动设备的NVIDIA Tegra系列芯片,图中为Tegra 2和Tegra 3。

AI计算:核心的问题是带宽

那么,英伟达需要解决的问题是什么?我们继续来看GTC 2021上黄仁勋的演讲。在演讲中,黄仁勋特别提到,英伟达并不否认x86设备存在的意义,英伟达依旧认为x86设备拥有灵活的扩展性和对各类设备的支持,x86依然是目前HPC或者服务器应用场合的重点。不过问题来了,英伟达认为x86设备目前存在一些困难,其中比较典型的就是带宽不足。

英伟达的例证显示,目前x86设备的核心是x86 CPU,x86 CPU通过内存控制器连接DDR4内存,最新的英特尔至强处理器可以实现8通道DDR4内存连接,其带宽大约为200GB/s,但是和GPU连接的带宽只能依靠PCIe 4.0 x16,带宽大约只有16GB/s(双向32GB/s),同时GPU本地内存(显存)的带宽在使用HBM2的情况下大约可以达到2000GB/s。

▲英伟达认为x86系统的核心问题是带宽

在这种情况下,当一个巨大的AI计算模型被读入系统需要CPU交由GPU计算的时候,GPU将其从主内存拷贝至本地内存(显存)的带宽仅为64GB/s—英伟达在这里的计算还是比较宽泛的,因为英伟达考虑到了1个CPU连接了4个GPU。每个GPU都可以使用16GB/s的带宽从CPU主内存中读取数据,因此4个加起来的带宽就是16×4=64GB/s。

这里的瓶颈显然就是CPU到GPU,如果说GPU本身的带宽是8车道高速公路的话,那么CPU本地带宽也许可以比作4车道的城市道路,而CPU到GPU的带宽只能看成一般的乡村道路了。从2000GB/s到200GB/s再到16GB/s,这里的数据带宽跌落是以数量级的形式存在的,这显然不符合现代计算设备对数据带宽的强烈“渴求”。

为了解决这个问题,英伟达也想了很多办法,比如游说业内企业采用自家更高速的总线NVLink,不过到目前为止只有IBM的Power家族处理器给予了支持,其余的包括英特尔和AMD在内的企业都没有给予回应。考虑到Power处理器昂贵的价格以及其并不可能被英伟达完全掌控,因此英伟达开始慎重地考虑自己建立CPU平台。终于在购买了ARM授权并宣布收购ARM后,英伟达推出了Grace CPU,并希望借此来解决前述的带宽问题。

▲英伟达引入了Grace CPU,解决带宽问题。

根据英伟达的规划,Grace CPU和GPU的连接通道不再是传统的PCIe,而是改用了第四代NVLink,其可以提供高达500GB/s的数据带宽。Grace CPU的内存控制器改用LPDDR5X,英伟达没有公布其具体的位宽情况,但是给出了一个数据带宽为500GB/s。

目前还不知道英伟达如何达到如此高的CPU带宽,因为这里存在一个很大的问题是LPDDR5X应该是32bit的颗粒,以现在LPDDR5最高6400MT/s的速率来计算的话,LPDDR5X速率可能最高在8000MT/s左右。这样一来,Grace CPU的内存位宽需要达到512bit才能实现大约500GB/s的带宽,也就是支持16个内存通道,这对一款CPU来说是非常不可思议的,并且Grace CPU还拥有第四代NVLink总线用于和GPU连接。这意味着CPU内部大量的面积和晶体管需要用于外部接口和高速总线。

根据英伟达公布的Grace CPU搭配下一代Hopper GPU的示意图来看,Grace CPU内部的CPU部分划分为4个区域,每个区域拥有24个核心,总计有96个核心,再加上周围大量的总线和相关接口,Grace CPU的面积应该不会太小,我猜测其尺寸应该和隔壁的Hopper GPU相差不多。考虑到类似的NVIDIA A100 GPU面积已经超过800mm²,因此Grace CPU在2022~2023年的3nm或者更先进的工艺加持下,其包含的晶体管面积应该非常大,而且成本不低。

耗费了如此巨大的成本之后,英伟达获得了梦寐以求的针对AI计算以及气候、材料科学、高级天气计算等高带宽HPC解决方案。

▲目前已经有多款超算对英伟达的Grace CPU搭配GPU产生了兴趣,图为即将到来的拥有20E的算力。

根据黄仁勋的介绍,除了HPC外,面向行业用户的新产品,英伟达将集成8个Grace CPU,每个提供500GB/s的内存和500GB/s的NVLink带宽,8个Grace CPU搭配GPU后将使得内存到GPU的数据读取带宽提升至4000GB/s,这对大型或者超级大的AI计算模型来说是非常有利的,尤其是相比PCIe总线—即使是2023年PCIe 5.0上线,读取带宽翻倍,届时8个PCIe 5.0 x16通道的带宽也应该只有大约256GB/s,即使到时候PCIe 6.0都已经发布并在产品中部署(可能性不大),同等条件下其带宽也仅仅只有512GB/s,大约只有英伟达Grace CPU+GPU方案的1/8。

▲英伟达规划了GPU、CPU和DPU三个产品线,每年都会规律的更新其中一种。

英特尔新任CEO此前公开回应认为,英伟达并没有真正对其数据中心业务构成迫在眉睫的威胁。

影响巨大:重新细分计算市场

从上文的分析可以看出,英伟达推出Grace CPU和相关产品的目的是为了解决AI计算和类似超大规模计算中存在的带宽问题。毕竟在现有的x86架构下,带宽已经严重制约了这类计算的发展。因此从这一点来看,Grace CPU可能能够重塑现有AI计算的市场,从而更加巩固英伟达在AI计算市场中的地位。

对英伟达来说,AI计算是其股价飙升的关键,并且英伟达现在已经是事实上成为AI行业的风向标。Grace CPU发布后,英伟达将在已经非常火爆的AI计算市场中再次细分出一个区域—也就是本文提到的,不依赖x86架构,以英伟达和ARM为主要计算架构供应者的全新AI计算生态圈。

▲英特尔对AI计算市场也是虎视眈眈,在CPU中就直接嵌入了AI加速相关指令集。

这个AI计算生态圈解决了之前AI计算对带宽的“渴求”,通过Grace CPU、英伟达的GPU、NVLink、LPDDR5X等为大规模数据、超大规模数据的AI计算需求提供了解决窗口。对于这类全新产品,再加上附加的英伟达CUDA和相关AI的软件产业圈,应该很快就可以打开市场,为AI计算的发展带来全新的方向。

其次,英伟达的Grace CPU并非针对英特尔和AMD的x86产品,它们在定位上的差距还是比较大的。正如前文所说,英伟达的Grace CPU在性能方面并不是重点,根据英伟达公布的数据,其整数算力目标是在SPECrate2017_Int_base中提供300分以上的成绩,浮点算力目标值暂时未知。Grace CPU的重点依旧是解决CPU和GPU互联中的带宽问题,并且英伟达也提到并不排除x86计算市场,英伟达的目标是为所有计算市场都提供可匹配的产品。另外,目前x86市场已经形成了一个庞大且拥有长久历史积累的生态圈,任何企业面对这个庞然大物首先想到的应该是加入,而不是直接挑战。

▲英特尔准备了多款Xe GPU,准备集中火力,一举攻入英伟达的大本营。

不仅如此,英伟达在CPU上的努力都会成为该公司在未来发展的助力。毕竟现在拥有一个完整、闭环的产业生态是所有企业发展的目的。英特尔在GPU上努力,AMD在软件和产业圈上努力,英伟达自然应该在CPU上努力。如果英伟达借助ARM的指令集和生态圈,在企业级、服务器以及HPC领域培育出属于自己的整个生态系统,那也是非常值得期待的。

▲英伟达的Grace CPU并非瞄准AMD或者英特尔,毕竟后者在CPU和x86产业生态方面拥有巨大的优势。图为AMD CPU和GPU路线图,2022年AMD即将推出Zen 4架构。

第三,英伟达目前也存在很多竞争对手,英伟达需要持续加强技术护城河。比如英特尔一直在持续加强CPU在AI方面的计算能力,推出了DL Boost、AVX-512等相关指令集,并且还通过自研GPU进入了并行计算市场。另外,目前全球市场也涌现出很多专注于AI计算的企业,一些巨头也开始布局AI计算,比如亚马逊、谷歌、百度、阿里巴巴等,都在不断地投产自己的AI计算芯片。

▲一些有实力的厂商也在自研AI芯片,图为谷歌TPUv2。

在这种情况下,如何守住基本盘并开拓新市场就是英伟达需要考虑的内容。在ARM的加持下,英伟达在CPU端拥有了强力助力,加上自己在GPU端的先天优势就能够将自己的技术壁垒再次抬高,继续成为行业中不可替代的选择。

Grace CPU暴露英伟达的野心?

从上文的分析来看,英伟达针对Grace CPU的布局主要有以下意义。首先是重新细分计算市场增加利润增长点;其次则是有利于加强自己的技术壁垒,同时在CPU计算方面给出自己在未来成长的可能性;另外一点则是可以通过Grace CPU进一步加高自己的技术壁垒,抵抗竞争对手对市场的侵蚀。

因此,在现在这个阶段,我认为英伟达在数据中心CPU上的所有操作都还是在为自己蓄力,并不是以正面抗衡英特尔和AMD以及整个x86产业生态圈的目的。如果说非要有一些想法的话,那也可能是英伟达在尝试另起炉灶,想要在x86的束缚下解脱出来,给自己的未来发展带来一个新的希望,这也算是其野心暴露的一种端倪吧!

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部