苏姿丰CES 2026:OpenAI罕见背书、李飞飞站台,两年三代正面叫板英伟达

苏姿丰CES 2026:OpenAI罕见背书、李飞飞站台,两年三代正面叫板英伟达
2026年01月06日 21:21 品玩

AMD在CES 2026打出了一场"超级秀":OpenAI总裁Greg Brockman罕见为竞争对手背书,李飞飞的World Labs深度绑定AMD算力,Blue Origin宣布用AMD芯片登月。硬件层面,苏姿丰公布了未来两年三代GPU路线图——MI455X(2026年底)、MI500(2027年)连续迭代,性能每代提升倍数级,剑指英伟达AI芯片霸主地位。

重磅路线图:两年连发三代AI芯片

2026年底:MI455X领衔Helios平台

AMD发布的Helios是下一代机架级AI系统,双机架设计、重达7000磅(约3.2吨)。单机架集成 72 颗 MI455X GPU,提供 2.9 ExaFLOPs 算力、31TB HBM4 内存,并具备 约 43 TB/s 的 scale-out(跨机架)带宽约 260 TB/s 的 scale-up(机架内)互联带宽

MI455X采用2nm+3nm混合工艺,首次搭载HBM4内存,性能相比当前的MI355X提升10倍。苏姿丰在台上举起实物芯片时强调:"这东西美不美?"同步发布的还有MI440X(针对8卡配置)和MI430X(主权云和传统HPC场景)。

2027年:MI500系列接力

更关键的是AMD首次公布了完整的Instinct路线图,明确展示到MI500系列的技术演进:

MI500系列规格:

  • 架构:CDNA 6
  • 制程:2nm
  • 内存:HBM4e(更高带宽版本)
  • 时间:2027年

这意味着AMD将保持年度迭代节奏,从MI300(2024)→ MI400系列(2026)→ MI500(2027),三代产品在两年多时间内密集发布。相比之下,英伟达的Blackwell到下一代Rubin的周期也在18-24个月,AMD正在追平竞争对手的产品节奏。

消费级:Ryzen路线同步推进

客户端方面,AMD发布Ryzen AI 400系列(12核Zen 5 + 60 TOPS NPU,1月底出货)和Ryzen AI Halo开发者平台(128GB内存,本地跑2000亿参数,Q2上市)。同时首次展示代号Venice的Zen 6服务器处理器实物芯片,但未公布具体时间表。

Ryzen AI Halo:能本地运行2000亿参数模型的迷你工作站。

这套路线图的战略意图清晰:用高频迭代和开放生态,蚕食英伟达在数据中心AI芯片80%+的市场份额。

OpenAI总裁罕见同台AMD:算力供给将影响未来GDP上限

Greg Brockman的现身意义重大。作为OpenAI联合创始人兼总裁,他过去几乎只为自家合作伙伴(主要是微软和英伟达)站台。这次登上AMD舞台,释放了明确信号:OpenAI正在多元化算力供应链。

Brockman核心观点有三:

  • AI从"文本框"进化到"代理舰队"——ChatGPT不再是被动回答问题的工具,而是能调用其他AI代理、长时间自主运行的复杂系统。这意味着推理算力需求将暴增。
  • 算力将成为GDP约束——“几年后,经济增长本身将受制于可用算力规模。AI不仅服务最终用户,更要优化所有现有流程。”

展示ChatGPT自动生成对比图表——现场演示中,AI代理仅凭原始数据就自主研究并生成MI450 vs MI300性能对比幻灯片,证明代理工作流的实用性。

ChatGPT自主生成的MI450与MI300/MI350性能对比图

更关键的数据来自Luma AI:这家生成视频公司CEO Amit Jain透露,其60%推理负载已在AMD上运行,并计划将合作规模扩大10倍。Luma的Ray3模型正是算力密集型应用的典型代表,这个案例证明AMD已经在实际商业场景中获得头部客户认可。

李飞飞押注AMD:空间智能需要极致算力

被誉为"AI教母"的李飞飞以World Labs联合创始人兼CEO身份登台,展示了旗舰产品Marble的惊艳能力:

"AI教母"李飞飞以World Labs CEO身份登台,展示空间智能技术

仅凭几张照片,Marble就能生成符合物理规律的完整3D世界。现场演示中,从AMD办公室的照片到可交互的三维模型,整个重建过程只需几分钟。这不是简单的建模,而是AI理解空间关系、光影、物理后生成的"智能化世界"。

李飞飞的核心观点直指硬件需求:"你看不到的是背后需要多少计算量。推理速度越快,世界响应性就越强——即时镜头移动、即时编辑、场景始终连贯,这才是关键。"她明确表示期待MI400系列上市,以支持更大规模世界的实时渲染和交互

World Labs已获AMD Ventures投资,技术应用覆盖游戏、元宇宙、虚拟制作、建筑设计等领域。从ImageNet到空间智能,李飞飞的每次转向都预示着AI新范式——而这次,她选择深度绑定AMD的算力路线图。

AMD芯片上月球:Versal 2驱动Blue Origin着陆器

Blue Origin首席技术官John Couluris宣布,其Mark 2月球着陆器将搭载AMD Versal 2芯片,用于自主降落和实时危险识别。这是典型的"终极边缘计算场景"——延迟必须极低,算力必须可靠,且要在极端温度和辐射环境下工作。

Couluris透露,Blue Origin员工已全员使用AI工具,未来月球探索将依赖边缘AI提前处理和优化数据。Mark 2着陆器计划2028年执行任务,目标是建立永久月球基地,并在月球背面开展射电天文学研究。

这个案例与AMD另一个合作同样惊艳:Generative Bionics的Gene 1人形机器人搭载"分布式触觉皮肤",能感知压力和接触,应用于辅助物理治疗。该机器人将于2026年下半年量产,核心计算由AMD处理器驱动。

从月球表面到地球上的康复中心,AMD在用硬件证明:AI不仅是云端训练游戏,更是边缘实时决策的必需品。

Liquid AI:12亿参数,把“本地代理”做成可演示的产品形态

AMD还请来了 Liquid AI 创始人 Ramin Hasani。这家从 MIT 衍生的公司发布了 LFM 2.5,并强调其路线是用更高效的架构,让十亿级参数模型在本地设备上也能跑出接近大模型的体验,把“效率”而不是“堆参数”作为核心卖点。

Hasani的表述很直接:“我们不造基础模型,我们造液态模型。”现场他们演示了“主动代理”的工作方式:在 Zoom 会议中自动记录要点,同时对邮件进行检索式研究,用户还能继续操作表格,主打“不中断工作流”的并行能力。Liquid AI 还透露,计划在 2026 年底推进原生多模态的下一代模型(文本+视觉+音频),并与 Zoom 等场景方继续推进产品化合作。

这一段也呼应了 Ryzen AI Halo 的叙事:更强的本地内存与端侧算力,配合更高效的模型路线,目标是把“离线也能跑的智能代理”推向可用阶段。

开放生态对抗CUDA霸权

苏姿丰反复强调的一句话是:"AMD是唯一在全栈提供开放性的公司。"这是对英伟达CUDA封闭生态的正面宣战。ROCm开源软件栈能否追平CUDA十余年的开发者积累,决定了AMD能否真正撼动市场格局。

AMD从制程、架构到内存技术的全面演进路线

市场数据支撑了AMD的信心:

AI用户从ChatGPT发布时的100万增长到现在的10亿,五年内将达50亿

全球算力需求从2022年的1 ZettaFLOP增长到2025年的100 ZettaFLOPs,五年内需要10+ YottaFLOPs——相当于2022年的10000倍

Luma AI、OpenAI等客户选择AMD,很大程度是为了降低对单一供应商的依赖和总拥有成本(TCO)。Luma CEO直言:“推理经济性对我们至关重要,模型需要海量算力和token。”

三大悬念:豪赌能否兑现

苏姿丰的开场词是"You ain’t seen nothing yet"(好戏才刚开始)。但从愿景到现实,至少三个问题待解:

Helios能否如期交付——2026年底是关键节点,MI455X的10倍性能承诺能否兑现将直接影响客户信心

年度迭代能否持续——从MI400到MI500的12个月周期,对供应链、良率、生态适配都是巨大考验

ROCm生态成熟度——开发者工具、模型适配、调试体验能否在短期内追平CUDA?这是决定胜负的软实力

从OpenAI总裁的罕见站台,到李飞飞World Labs的深度绑定,再到Blue Origin的月球计划,AMD在CES 2026搭建起了一个全方位的AI算力叙事。但AI芯片战争的下半场,拼的不再是PPT和路线图,而是真实的交付能力、生态整合能力和长期服务能力。

Helios能否按时交付?OpenAI会把多少负载迁移到AMD?李飞飞的空间智能何时大规模商用?2026年底到2027年的连续发布能否兑现?市场会给出答案。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部