对话Gartner研究副总裁盛陵海:突破AI芯片限制,中国企业的难点与机会

对话Gartner研究副总裁盛陵海:突破AI芯片限制,中国企业的难点与机会
2024年06月13日 22:24 芯东西
芯东西(公众号:aichip001)

作者 |  ZeR0

编辑 |  漠影

芯东西6月13日报道,中国企业如何突破AI芯片限制?这个话题一直备受业界关注。近日,Gartner研究副总裁盛陵海(Roger Sheng)分享了针对高性能AI芯片出口限制的一些破解策略。

盛陵海建议国内企业不能有幻想,要多看国内芯片的供应商和国内相关的替代产品,虽然它们可能在初期时有很多问题和局限性,但是不给机会是永远培养不起来的。

一、美国芯片禁令对中国AI市场的六点影响

盛陵海总结了美国芯片禁令对中国AI市场的六点主要影响:

1、中国大模型厂商无法获得用于训练的最新AI加速器卡,将大大增加所需时间,显著降低效率。

2、本地AI开发人员必须投资于将开发工具迁移到本地供应商平台,可能需要花费更多时间和工程资源。

3、AI基础设施的多样化,将导致AI技术向不同方向演进,并带来生态系统的孤立。这种做法不利于系统的健康运营,而且成本更高。

4、中国企业将更关注行业大语言模型而非通用大语言模型的生成式AI具体用例。

5、中国政府强调AI的重要性,并支持投资大规模基础设施,构建国家AI数据中心平台。

6、华为和其他中国AI芯片供应商在中国获得更多商机,并通过与当地伙伴合作来升级其解决方案。

盛陵海认为有些企业现在低调、不敢做国家生意是没有意义的,只要大规模应用、让产品竞争力提高,美国一定会知道,它不动这家企业不是因为企业没有开发出AI芯片,而是因为这家企业还没对它构成威胁,有些企业需要调整认知偏差,只要芯片做得好,国内市场会给机会。

二、构建AI基础设施,国内企业的三种选择

对于国内的企业来说,构建AI基础设施可能有三种不同的选择。

第一,本土供应商的替代AI解决方案。国内大型的云服务商、政府机构、国有企业一定会找本土的替代AI解决方案,因为不能把未来的资源全部押宝在“美国不会再继续禁运”的事情上。性能较差、训练效率较低、生态系统尚未建立、平台迁移资源有限等则是劣势。

第二,Nvidia或其他供应商的降低AI解决方案。一些互联网公司、跨国公司、中小企业和初创企业会用NVIDIA降级的解决方案。优势是平台很成熟、经市场验证、开发资源充足,劣势是性能受限、价格偏高,而且不确定是否会出现新限制。

第三,通过非官方渠道获取的AI芯片。一些中小型企业、基于AI的云服务提供商、初创企业会做一些算力租用生意。但是规模较大的公司就很难了,因为没有技术支持,也没有什么官方保证。

还有一条路,美国也想堵,但是现在还不确定能不能堵上,就是AWS、微软、谷歌等国际云服务提供商,在海外开立的企业账户,只要名称不是直接被美国查到跟“黑名单公司”有关,理论上可以用他们的AI云服务做海外生意。美国议员说这个可能也需要关死,但是很难关,因为还牵涉到开放市场的因素,所以目前还属于模棱两可。

对于本地生成式AI生态系统发展,芯片厂商、大语言模型提供商、AI应用开发人员要紧密合作。芯片厂商要保证做的方案能跑主流大模型,AI开发人员要考虑用本土芯片平台去准备开发环境。

盛陵海认为,NVIDIA的CUDA护城河生态非常强大,壁垒建起来后,其他厂商很难超过。但NVIDIA“每年更新一代”有点夸张,因为这个更新不仅牵涉到芯片本身,还涉及网络、内存等其他周边芯片的配合。

在他看来,模拟AI芯片主要做端侧推理,目前处理能力相对有限;近存计算可能机会更大,因为能够突破内存带宽、延迟方面的瓶颈。

三、边缘/端侧AI能力将推动生成式AI应用增长

Gartner预测生成式AI将从2024年开始被越来越多的人所使用,2025年云端的AI推理需求会超过训练,而且需求量会增加得比训练更快。

首先因为训练成本非常高,投入非常大,不可能永远训练下去,最后落地产生价值还是要会推理。随着越来越多的人用生成式AI,在推理上的诉求、对算力的需求会不断增加。

训练是参数量越大,需要的资源越多。推理可能对每一个应答的算力需求不是很大,但对使用的用户从几十万到几百万、上千万,肯定要崩掉,所以大家开始向推理投资更多的芯片。

Gartner还预测到2026年,更多基于生成式AI的要求应答将在端侧产生,而非云端处理。

有两个主要原因:

一是推理需求的增加需要更大的投资,云成本是要真金白银投下去的,如果能分一部分算力的需求在端侧,那就可以降低云的负载,减少投资。

从不同的模型参数来看,也可以看到边缘/端侧AI的可行性。设备端可支持10亿~100亿参数规模的模型,边缘端可支持100亿~1000亿参数规模的大模型。

从效益角度来看,AI从云端向边缘/端侧迁移有很多好处,比如对企业或个人、家庭的应用,个性化、隐私和安全、延时和性能很重要,分摊成本对服务商很重要,能源消耗是对全球环境的影响,还有在不联网情况下仍能跑生成式AI模型。

不利之处肯定也有,比如性能没有办法像云端那么强。但目前绝大多数的人其实没有必要一直用超大模型,落实到个人应用,做翻译、商务会议记录或者是画图,甚至于做视频,都可以在边缘/端侧来进行,而且不会出现内容外泄的情况。

基于此,盛陵海预测边缘/端侧的生成式AI应用会从智能手机、电脑不断扩散到消费物联网、智能家居,进一步到汽车。生成式AI落地到汽车就需要更可靠、更高的自动化程度,需要和其它AI能力结合起来,比如叫组合式AI,然后实现更可靠、更迅速、更智能的应用处理能力。

他认为当前问题是硬件没有标准化,各搞各的,缺少统一标准。

结语:生成式AI仍处于炒作顶峰,中国企业必须做好两手准备

最后,盛陵海提出几个建议:

1、要认识到生成式AI仍处于炒作顶峰阶段。

2、今年下半年OpenAI出GPT-5的时间点非常重要,可以看到Scaling Law到底还有多少有效范围、能走到什么地步。中国企业必须做好两手准备,选择合适的技术路线/解决方案,以建立AI能力,为生成式AI落地做好准备。

3、与本地AI基础设施提供商合作,根据本地用例开发定制生成式AI应用。

4、采用边缘/端侧AI芯片提供商的最新解决方案,了解平台支持的AI模型和优化模型平台迁移的能力。

5、与本地生成式AI生态系统提供商合作,在边缘/端侧平台上开发场景式生成式AI应用。

盛陵海认为,美国的确在AI领域相对领先,但落到基础生产力上,中国企业有很大能力去实现这些产品,AI不是一个艺术品,而是实用的工具,是刀、是斧子,要经得起环境的考验。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部