AMD发现将芯片效能提升100倍的办法

AMD发现将芯片效能提升100倍的办法
2024年05月24日 10:03 半导体行业观察

AMD 首席执行官 Lisa Su 出席了 imec 的 ITF World 2024 大会,接受了享有盛誉的imec 创新奖,以表彰其创新和行业领导力,与 Gordon Moore、Morris Chang 和 Bill Gates 等其他往届获奖者一起获得了该奖项。在接受奖项后,Su 开始了她的演讲,介绍了 AMD 为实现公司 30x25 目标所采取的步骤,该目标旨在到 2025 年将计算节点的能效提高 30 倍。Su 宣布,AMD 不仅有望实现这一目标,而且现在还看到了到 2026 年至 2027 年将能效提高 100 倍以上的途径。

由于 ChatGPT 等生成式 AI LLM 的激增,人们对 AI 功耗的担忧成为人们关注的焦点,但 AMD 早在 2021 年就预见到了 AI 巨大的功耗需求所带来的问题。当时,AMD 开始致力于其 30x25 目标,以提高数据中心计算节点的能效,特别指出 AI 和 HPC 的功耗是一个迫在眉睫的问题。(AMD 早在 2014 年就设定了其第一个雄心勃勃的能源目标,其首个 25x20 目标是到 2020 年将消费处理器的能效提高 25 倍,而 AMD 最终以 31.7 倍的提升超额完成了这一目标。)

这个问题现在已成为焦点。随着全球最大的公司争夺人工智能霸主地位,生成式人工智能正在推动数据中心的快速扩张,但公共电网尚未准备好应对耗电数据中心的突然激增,电力成为新的限制因素。由于电网容量、基础设施和环境问题限制了可用于新建和扩建数据中心的容量,因此数据中心可用的电量受到严格限制。事实上,许多新数据中心都建在发电厂旁边,以确保电力供应,而巨大的需求甚至重新点燃了使用核小型模块反应堆 (SMR) 为单个数据中心供电的热情。

随着训练模型所需的计算量增加,问题只会愈演愈烈。苏姿丰指出,第一批图像和语音识别人工智能模型的大小过去每两年翻一番,与过去十年计算能力的进步速度基本一致。

然而,生成式人工智能模型的规模现在以每年 20 倍的速度增长,超过了计算和内存进步的速度。苏姿丰表示,虽然当今最大的模型是在数万个 GPU 上训练的,消耗了数万兆瓦时的电力,但快速扩大的模型大小可能很快就需要数十万个 GPU 进行训练,可能需要几千兆瓦的电力来训练一个模型。这显然是站不住脚的。

AMD 为提高能效制定了多管齐下的策略,包括一种广泛的方法,从其硅架构和先进的封装策略扩展到 AI 特定的架构、系统和数据中心级调整以及软件和硬件共同设计计划。

当然,硅是基石。

苏姿丰指出,3nm 全栅极 (GAA) 晶体管是 AMD 在硅路线图上的下一步,旨在提高功率效率和性能,同时继续关注先进封装和互连,以实现更节能、更具成本效益的模块化设计。先进封装在扩展设计以在单芯片封装的限制内产生更多马力方面发挥着关键作用,AMD 采用 2.5D 和 3D 封装的混合技术,以最大限度地提高每平方毫米数据中心硅片的每瓦计算能力。

在服务器节点和服务器机架之间传输数据会因距离较长而消耗额外电力,因此优化数据局部性可以节省大量电力。AMD 的 MI300X 是一个很好的例子,它体现了制造越来越大的芯片封装所带来的效率——该芯片拥有 1530 亿个晶体管,分布在 12 个芯片上,搭配 24 个 HBM3 芯片,可提供 192GB 的内存容量,所有这些都可作为本地内存供 GPU 使用。再加上封装内单元之间经过功率和性能优化的 Infinity Fabric 互连,极高的计算和内存密度可将更多数据保持在靠近处理核心的位置,从而减少传输数据所需的能量。

参考链接

https://www.tomshardware.com/pc-components/cpus/lisa-su-announces-amd-is-on-the-path-to-a-100x-power-efficiency-improvement-by-2027-ceo-outlines-amds-advances-during-keynote-at-imecs-itf-world-2024

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部