![](http://k.sinaimg.cn/n/sinakd20240627s/450/w800h450/20240627/5d77-a727fb1f4229a01b5d04050efce2d6f4.jpg/w700d1q75cms.jpg)
6月26日消息,据The Next Platform报道,近日AMD执行副总裁兼数据中心解决方案集团总经理Forrest Norrod在接受采访时表示,AMD将助力构建全球最大的单体人工智能(AI)训练集群,将集成高达120万片的GPU。
120万片GPU 是一个非常惊人的数字,要知道目前全球最强的超级计算机Frontier 所配备的 GPU 数量才只有37888片,这也意味着AMD所支持的AI训练集群的GPU规模将达到Frontier的30多倍。不过,Forrest Norrod没有透露哪个组织正在考虑构建这种规模的AI系统,但确实提到“非常清醒的人”正在考虑在AI训练集群上花费数百亿到数千亿美元。
目前的AI训练集群通常由几千个 GPU 构建而成,这些 GPU 通过跨多个服务器机架或更少的高速互连连接。如果要创建一个拥有高达 120 万个 GPU 的单体 AI 集群,意味着将会面临极为复杂的高速互连网络,并且还会有延迟、功耗、硬件故障等诸多的问题,这似乎是难以实现的。
比如,AI工作负载对延迟非常敏感,尤其是尾部延迟和异常值,其中某些数据传输比其他数据传输花费的时间要长得多,并且会中断工作负载。此外,当今的超级计算机也会面临每隔几个小时就会发生的 GPU 或其他硬件故障。当扩展到当今最大的超级计算机集群的 30 倍时。更为关键的是,如此庞大的AI训练集群,将会产生极为庞大的能耗,不仅稳定的供电将会是一个大难题,而且配套的散热解决方案也面临巨大挑战。
编辑:芯智讯-浪客剑
![](http://n.sinaimg.cn/finance/pc/cj/kandian/img/article_pic05.png)
4000520066 欢迎批评指正
Copyright © 1996-2019 SINA Corporation
All Rights Reserved 新浪公司 版权所有
All Rights Reserved 新浪公司 版权所有