整理 腾讯科技编辑组
在英伟达震撼业界的CES发布会次日,CEO黄仁勋举办了一场内容丰富的沟通会,在一个多小时的问答环节中,他一口气回应了与会者关于产品战略、技术创新、行业合作等方面的20个问题,为此次发布会的诸多细节做出了进一步澄清。
沟通开始,黄仁勋就分析了AI PC之所以卖不好的原因,因为云端部署更靠谱,只有少量技术人员会有AI端侧部署需求。在交流环节,他还盛赞了中国的电动汽车行业。认为它们的技术非常先进,自动驾驶能力也非常出色。正在倒逼特斯拉等公司继续发展。
针对游戏业界大家关心的AI生成是否会替代渲染的问题,黄仁勋明确进行了否定。他说虽然DLSS 4系统利用了AI生成,但渲染那部分才是给生成以基础的部分。未来渲染的3D资料,仍会是AI画面生成的基石。
对于另一个业界关注的问题,即大模型转向推理迭代时成本暴增怎么办。黄仁勋表示,Blackwell NVL72的推理性能预计将达到Hopper系列水平的30-40倍,这种性能的显著提升将直接转化为成本的等比例下降。此外,他还提到了将o3等推理模型的答案蒸馏,重新后训练大模型的技术能显著降低成本。而这正是近期Deepseek和Deepmind都在尝试的路径。
另外,在这场问答中,黄仁勋对几个核心产品的定位作出了更清晰的解释。比如针对Project DIGITS AI超级计算机,他强调这是为了解决AI开发者"难以负担持续云端开发成本"的实际痛点;而Cosmos系统的构建,则是为了让机器人能理解物理世界。
在回答关于新一代显卡定价策略的问题时,黄仁勋认为:"追求最佳性能的用户往往不会因为100美元的差价而降低配置需求。"而且他还自豪地强调,本次50系列显卡的最低端版本都和上一代最高端持平。
这场问答不仅延续了发布会的热度,更揭示了英伟达在AI时代的战略布局和技术创新路径。从回答中可以看出,英伟达正在经历一次重要的转型:从传统的显卡制造商,向全方位的AI计算平台公司迈进。
以下为访谈全文:
问题1:英伟达发布了AI PC相关产品,但这类产品今年的销量并未如预期般大幅增长。你认为英伟达是否有能力或潜力去改变这一现状?是应该积极推动这类产品的普及,还是考虑终止相关项目?另外,你认为到目前为止,是什么因素阻碍了AI PC的广泛采用?
黄仁勋:人工智能起源于云端,且主要是为云端设计的。回顾英伟达过去几年的增长情况,不难发现这些增长主要源自云端。因为训练这些庞大的人工智能模型需要人工智能超级计算机,而这些模型在云端部署起来相对容易。这些在云端运行的模型被称为端点,更具体地说,是API端点。尽管如此,我们依然认为存在设计师、软件工程师、创意人员以及热爱在个人电脑上开发人工智能的爱好者群体。当然,这里存在一个挑战,即由于人工智能主要在云端运行,云端汇聚了大量的活动以及工程工作,而专注于将人工智能应用于这一领域的人却寥寥无几。事实证明,Windows电脑实际上非常适合执行这类任务,这个东西叫做WSL2(Windows Subsystem for Linux 2)。WSL2本质上是一个在Windows内部运行的虚拟机,作为学习空间中的第二个操作系统。它的创建初衷是云端原生的,支持Docker容器,并为编码提供了完美支持。因此,我们计划将为云服务开发的人工智能技术,通过确保与PC的兼容性,利用WSL2的支持功能,将云端环境带到个人电脑上。WSL2能够实现这一点,让我们可以将云端的所有能量、所有工程成果以及智能云的所有动态直接引入个人电脑。我认为这就是正确的解决方案,对此我感到非常兴奋。所有的PC原始设备制造商也都对此充满了期待。我们将结合PC硬件、Windows系统以及WSL2,从而能够充分利用云端的所有资源,并将其直接应用于个人电脑。
问题2:你是否可以解释下在发布会中宣布的诸多进展的重要性,比如最新的大模型,特别是对于那些对人工智能领域不太了解的人?
黄仁勋:英伟达本质上是一家科技公司,而非传统的消费品公司。我们的技术在很大程度上正在影响,并将持续塑造未来消费电子产品的走向。昨天我们宣布的众多重要事项中,有一项是关于构建一个能够理解物理世界的基础模型Cosmos。正如GPT是理解语言的基础模型,Stable Diffusion是理解图像基础模型一样,他们掌握了摩擦力、惯性、重力等基本概念,理解物体的存在与恒常性,以及几何与空间关系。这些都是孩子们天生就懂的事情,但他们以一种当前语言模型所缺乏的方式理解物理世界。因此,我们坚信需要一个专门用于理解物理世界的基础模型。现在,我们已经创建了这个模型,之前你可以用GPT完成的所有任务,以及你可以用Stable Diffusion完成的所有图像生成任务,现在都可以借助我们的Cosmos模型来实现。例如,你可以与它进行对话,与这个物理世界模型交流,询问:“当前世界里有什么?”它会根据摄像头捕捉到的内容来回答。Cosmos是一个世界模型,它能理解这个世界。为何我们需要这样的东西?原因在于,若想让人工智能在物理世界中理智且有效地运作,它必须具备对物理世界的理解能力。那么,我们能用这个模型做什么?自动驾驶汽车需要理解物理世界,机器人也需要理解物理世界。因此,Cosmos这样的模型是实现多模态的起点。就像GPT模型推动了我们今天所见证的众多人工智能应用的发展,Llama对于人工智能的各种活动至关重要,而Stable Diffusion则激发了图像和视频生成模型的发展一样,我们期望Cosmos能够成为推动下一波人工智能创新的关键。
问题3:在发布会中,你提到我们正在见证一些新的“人工智能缩放定律”出现,特别是在测试时间计算(Test Time Compute)方面。我认为OpenAI的o3模型表明,从计算角度来看,缩放推理的成本非常高昂,他们甚至在ArcAGI的测试中花了几千美元去解题。英伟达正在采取哪些措施来提供更具成本效益的人工智能推理芯片?如何从测试时间计算缩放中获益?
黄仁勋:首先,测试时间计算问题的直接解决方案,无论是在性能上还是在成本承受能力上,都是增加我们的计算能力。这就是为什么Blackwell NVL 72的推理性能可能是Hopper的30-40倍的原因。通过将性能提高30-40倍,你可以将成本降低30-40倍。因为数据中心的成本差不多。摩尔定律在计算历史上之所以如此重要,就是因为它推动了计算成本的下降。回顾过去的二十年,我们已经成功地将计算的边际成本降到了原来的百万分之一,这一变革使得机器学习成为可能,我们要做的就是让电脑去搞定一切。类似的情况也将在推理领域上演,我们将持续提升性能,这也将促使推理的成本大幅下降。思考这个问题的另一种方式是:当前进行测试时间计算时,需要进行大量的迭代,通过测试时间的缩放来推断出答案,而这些答案,随后会成为下一次预训练或后训练的数据来源。因此,我们现在所收集的一切信息,包括正在持续收集的数据都将汇入庞大的数据池中,用于模型的预训练和后训练。我们将持续推动这一过程向训练阶段深化,因为利用超级计算机提升智能并训练模型,进而降低每个人的推理成本,是一种更为经济高效的方式。当然,这需要时间。因此,这三种缩放定律将会并存一段时间。无论如何,它们都会在一段时间内同时发挥作用。一方面,我们会不断努力提升所有模型的智能水平;另一方面,人们会不断提出更加复杂的问题,并期待得到更加智能的回答。更智能的事物将经受住时间的考验,其发展水平会持续提升。这个循环将会持续不断地进行下去。
问题4:你提到英伟达增加了在以色列的运营活动,使得你们成为当地的最大雇主之一。2024年英伟达扩大了针对以色列公司的投资组合。你们打算如何进一步增加在以色列的投资?我们是否很快就会听到一些新的项目并购消息?你认为有机会从那里招募高技能人才吗?
黄仁勋:我们几乎从世界各地招募顶尖人才。在英伟达的官方网站上,对于获得我们招募职位表现出浓厚兴趣的候选人提交的简历已经突破了百万大关。然而,我们公司目前仅有32000名员工。由此可见,人们加入英伟达的热情之高涨。在以色列,我们面临着巨大的发展契机。回想起最初收购Mellanox时,他们仅有2000名员工。时至今日,我们在以色列的团队已经壮大到近5000人。可以说,我们是以色列发展最快的雇主。我们的以色列团队开发了NVLink、SpectrumX,我为那个团队感到无比自豪。它所展现的能量让这一切变得不可思议。另外,我们今天没有任何交易合作要宣布。
问题5:在DLSS4的框架下,英伟达通常聚焦在编写图形和相关领域。我想知道你们是否会进一步拓展至多帧生成领域,DLSS4是否限于传统的两帧渲染与中间帧插值?此外,还有文本压缩等技术,这是否需要推动游戏开发者去采用?这是否可以通过驱动程序来实现,从而惠及所有游戏?
黄仁勋:很快就会有。我们对Blackwell所做的改进是,增加了着色器处理器处理神经网络的能力。你可以将代码与神经网络混合,并放入着色器管线中。之所以这一点如此重要,是因为纹理和材质是在着色器中处理的。如果着色器无法处理人工智能,那么你将无法享受到神经网络带来的某些算法进步的好处。如今,纹理压缩技术已经取得了显著的进步,其效果也更为出色。回顾过去七年,我们所使用的压缩算法已经实现了巨大的飞跃,使得压缩比得到了显著提升。鉴于现代游戏体积庞大且包含大量纹理,这种额外的5倍压缩能力无疑是一个巨大的优势。此外,材料的特性也是至关重要的。当光线穿过材料时,其各向异性会导致反射方式的不同,从而能够清晰地区分出金色涂料与黄金之间的差异。这种特性本质上源于原子层面,是光线在微观原子结构上反射和折射方式的直接体现。然而,用数学语言来精确描述这种特性却异常困难。但我们可以借助人工智能的力量来学习并模拟这些复杂的材料特性。这种神经材料的应用,无疑为计算机图形学领域带来了革命性的突破,使得渲染效果更加生动逼真,达到了前所未有的高度。值得注意的是,无论是纹理压缩还是神经材料的应用,都离不开内容方面的精心制作。开发者需要首先以这种方式来开发和优化内容,我们才能顺利地将这些先进技术整合到图形渲染流程中。关于DLSS技术中的帧生成部分,它并非简单的插值技术。确切来说,它是一种真正的帧生成技术你并非在回忆过去,而是在预测未来。DLSS 4,正如大家所知,是完全精心打造的。
问题6:我注意到,RTX 5090与RTX 5080之间差距很大。RTX 5090的CUDA核心数量是5080的两倍多,价格也翻了一番。为何旗舰与次旗舰之间的差距如此明显?
黄仁勋:原因很简单,一旦有人追求最好的,他们就只追求顶级体验。世界上并没有那么多细分领域。大多数爱好者如果想要最好的,即使稍微降低一点配置、节省100美元,他们也不在乎。对于他们来说,最重要的是品质。当然,2000美元的花费不算小,但其价值是值得的。要记住,这些技术将融入你的家庭影院环境,你可能已经在显示器和扬声器上投资了约1万美元。在这种情况下,你肯定会选择最好的配置。
问题7:你提到内存的时候提及了美光,那为什么在英伟达的产品中还会使用三星和SK海力士的内存?黄仁勋:我认为三星和SK不生产显卡。啊?他们也生产?那别告诉他们我这么说过。正如你所知道的,SK和三星是我们最大的供应商之一。你要知道,三星是最早一批参与HBM研发的企业,我们最早使用的HBM产品就来自于三星,我相信三星也会在HBM上取得成功。
问题8:AI生成在当下的游戏中越来越重要。你是否想象过这样一个未来:传统渲染的画面将不再是主流,所有画面都会由AI生成?
黄仁勋:不会。还记得有人首次提出:“为什么不直接用ChatGPT生成一本书?”当时内部没人预料到这一点。原因在于,你需要为它提供基础,这就是条件反射的概念。现在我们根据上下文调整对话或提示内容。回答问题前,必须先理解问题的背景。上下文可以是PDF、网页搜索,或者你明确提供的信息。电子游戏也是如此。你需要为它提供背景,不仅在故事层面上有意义,还要具备全球视野和空间相关性。你为游戏提供上下文的方式是,首先给它一些几何图形或纹理片段,游戏系统便能基于这些生成内容,就像训练模型一样。这与ChatGPT中上下文处理的方式相似。在企业应用中,这叫做RAG(检索增强生成)。未来,3D图形将基于3D基础条件生成。以DLSS4为例,在三千三百万像素的四帧图像中,我们只渲染了两帧图像,另外两帧是生成的。这难道不是一个奇迹吗?之所以这件事如此重要,是因为其中两百万像素必须精确被渲染成正确的图像。然后依靠它,我们才能从中生成3100万像素。这让我们节约了大量本来应该去渲染3100万像素的计算资源。这种条件设定不仅在像素渲染中有效,也能应用于几何图形、动画、头发等渲染元素。这意味着未来的电子游戏将拥有更加真实和细致的细节。如今,人工智能与计算机图形学已深度融合,我们的神经渲染系统已经成为行业标准。在Omniverse中,我们也采用了类似的方式。Omniverse与Cosmos相连,因为它是Cosmos的3D生成引擎。通过Omniverse,我们可以完全控制渲染过程,尽量减少干预,生成更多内容。当我们减少对模拟的控制时,反而能创造出更广阔的世界,生成引擎在背后赋予这些世界美丽的呈现。
问题9:在这次的CES中,我们见证了英伟达在图形技术方面取得了显著进展,特别是在电子游戏和数字人工智能领域。你是否看到GPU开始处理未来游戏、虚拟现实(VR)以及YouTube内容创作中的更复杂逻辑?这是否意味着图形和计算逻辑的融合,尤其是GPU与VR技术的结合,已经成为未来发展的目标?
黄仁勋:当然。原因很简单,GPU是Blackwell架构,而Blackwell不仅能生成文本和语言,还能进行推理。整个AI代理、完整的机器人系统都可以在Blackwell上运行。就像它可以在云端和汽车中运行一样,我们也能在Blackwell上执行完整的机器人操作流程。我们可以在Blackwell上处理地面动力学或粒子物理。在机器人、汽车、云端和游戏系统中都是相同的CUDA架构。这是我们做出的一个重要决定。原因在于,软件开发者需要一个统一的平台,他们希望创建的应用能够在任何地方运行。在发布会上,我也提到了,“我们将在云端创建AI,并将它运行在你的PC上。”还有谁能做到这一点?因为它们完全基于相同的CUDA平台。事实上,云端的容器会将AI应用下载并在你的PC上运行。例如,SDXL(Stable Difusion XL)MIM技术将表现的非常出色,FluxMIM也很强大,LammaLIM则可以直接从云端下载并运行在你的PC上。这种方式也会在其他设备上实现相同的效果。
问题10:为什么2017年推出的显卡系列(配备大容量VRAM),即便目前大多数游戏在常见分辨率下并不需要这么多显存,仍然在一些高性能显卡中(如RTX 3070)表现优异,尤其是在1080p分辨率下。在上一代显卡打破性能瓶颈的情况下,这还有什么必要提升呢?
黄仁勋:游戏赛道的竞争特别激烈,尤其是在某些国家已经开始做出这些突破时。我们正在尝试平衡计算引擎和显存之间的关系,以找到合适的平衡。我们一直在努力找到这个平衡,但这就是我们追求的目标。如果显存过低,计算能力就无法得到充分发挥;而如果显存过大,那么计算能力可能就不足以支持这些资源。因此,我们一直在寻找这种平衡。
问题11:毫无疑问,超大规模企业对贵公司产品的需求是存在的。但我很好奇,能否具体说明一下贵公司在扩大收入基础、吸引企业客户方面的紧迫感,尤其是在亚马逊和YouTube等公司不自行开发AI芯片的背景下,政府建设自己的数据中心以与超大规模云服务商竞争。您感受到的紧迫性有多强?另外,您能详细说明一下在企业和政府方面的需求或进展吗?
黄仁勋:我们的紧迫感源自于为客户服务。我从未感到压力,因为我的客户中有些也在制造其他芯片。我们只是在构建不同的东西。我很高兴他们现在有了新的数据云,并且正在用视频开发自己的产品,这证明了他们做出了明智的选择。我们的技术发展速度非常快。每年性能翻倍,同时成本也几乎减半,这比摩尔定律的速度还要快,堪称最佳时代。目前,企业的关键在于两个行业的服务:软件行业和解决方案工程师,后者帮助客户将软件适配到业务流程中。我们的战略是与这两个生态系统合作,帮助它们构建具有自主能力的AI。例如,与ServiceNow的合作很成功,我们将推出一系列基于ServiceNow的智能代理,提升服务和工业支持的效率。这就是我们在解决方案创新方面的策略之一。还有,我们与埃森哲和劳埃德等公司的合作也非常出色,特别是埃森哲,在帮助客户将AI整合到他们的系统中方面做得非常好。因此,我们的首要任务是推动整个生态系统发展AI,因为这与开发软件不同,它需要一套专门的工具。总之,过去一年我们在构建自主AI工具包方面取得了很大进展,现在关键是如何部署这些技术并加速应用。
问题12:你好,Jensen,昨晚看到50/70系列的发布和价格上涨,同时还保持了我们预期的性能,真是让人兴奋。那么关于60系列,我们可以期待些什么呢?黄仁勋:真不可思议,我们昨晚发布了四款RTX Blackwalls,最低性能的那款就达到了目前世界上最高GPU的性能。这让我们更能感受到AI的强大能力。没有AI、没有张量核心以及DLSS4的创新,这种能力根本不可能实现。至于其他内容,我没有什么新消息可以宣布。
问题13:你在分享中提到了Agent AI。像AWS、微软、Salesforce这样的公司,它们也有平台并鼓励客户进行开发,你是如何与它们合作的?你们是如何起步的?
黄仁勋:英伟达是一家科技平台公司,而非直接面向企业的公司。我们的核心目标是构建工具包、库和人工智能模型,尤其是针对像ServiceNow这样的企业级工具包。我们主要关注的领域包括ServiceNow、SAP、Oracle、Synopsys、Cadence和西门子等公司。虽然这些公司在各自领域有丰富的积累,但他们并不希望将精力投入到计算层和AI库的开发上。因此,我们为他们提供了这一解决方案。这个过程非常复杂,因为我们讨论的是如何将像ChatGPT这样的技术嵌入到容器中,并优化微服务和端点。为了确保这些产品能够在任何云端环境中高效运行,我们开发了NIM和NEMO技术。NIM和NeMo可以被看作类似于CUDA及其CUDA-X库的技术。值得强调的是,这些技术并非为了与客户竞争,而是为了支持他们。事实上,许多云服务提供商(CSP)已经开始使用NeMo来训练大型语言模型或引擎模型,且其云端已部署了大量的NIM和NeMo,工作方式类似。CUDA-X库对平台至关重要,它极大推动了深度学习技术的发展。我们为行业创建了这些库,避免他们从零开始开发,节省了大量的时间和资源。通过提供NeMo和NIM等技术,我们帮助行业专注于其核心业务,无需自行构建复杂的AI基础设施。
问题14:你认为,除了云端和本地计算的平衡,当前非游戏PC市场中最大的未满足需求是什么?是处理能力、灵活性,还是其他方面的技术瓶颈?
黄仁勋:DIGITS代表深度学习GPU智能训练系统,它是一个面向数据科学家和机器学习工程师的平台。如今他们大多依赖个人电脑、Mac或工作站来进行相关工作。坦白说,对于大多数人的电脑来说,运行机器学习和数据科学任务,像使用pandas(Python 数据处理库)等工具,并不是最优选择。而现在,我们有了一个小巧的设备可以放在桌子上使用,你与这个设备的互动方式,类似于与云端对话的方式。为什么你需要这样的设备呢?原因在于,大多数开发者通常需要长期依赖机器工作。如果始终在云端环境中进行开发,费用可能会迅速累积。因此,我们提供了为个人开发云的解决方案。这款设备特别为数据科学家、学生以及需要全天候在线的工程师设计,帮助他们在本地完成工作,减少云端费用。我认为DIGITS填补了人工智能发展中的一个重要空白。人工智能最初是在云端起步的,未来也将回归云端。然而,这使得普通计算机难以跟上这一进程。因此,我们需要像DIGITS这样的设备,来弥补这一差距。
问题15:最近Twitter上有人提到“奇点即将到来”的观点,让我很震惊。在大会分享中,你也提到“机器人时代将到来”。如果这是真的,机器人会无处不在并迅速加速发展,可能会从会议响应、周围的财产开始。那么,你认为机器人未来会朝哪个方向发展?我们应该如何应对?
黄仁勋:超级智能的概念并不陌生。比如英伟达公司中许多人在各自的领域都非常聪明,在我看来,他们都是超级智能的人。坦白说,我认为自己智力平平,却被这些超级智能的人所包围。我更愿意被超级智能包围,而不是其他选择。因此,我非常欣赏我的电子团队、公司领导层以及科学家们,他们的聪明才智让我敬佩。这就是未来的模样。你将会拥有超级智能的AI助手,帮助你完成写作、分析问题、进行供应链规划、编写软件、设计芯片等各种任务。数字营销活动也可以借助这些智能助手来推动播客的开展。简而言之,你将随时拥有超级智能助手协助完成繁琐的工作,他们总是在你需要的时候为你服务。
问题16:我记得在2017年,英伟达在CES上展示了一款演示车,并与丰田在GDC上达成了合作。那么,2017年和2025年之间有何不同?2017年所面临的挑战是什么?而2025年的技术创新又带来了哪些变化?
黄仁勋:未来所有的交通工具都会具备自动驾驶能力,或者至少能够实现自动化操作。未来,所有汽车虽然依然可以选择手动驾驶,但每辆车都具备自动驾驶的能力。假设我们从现在开始,全球有10亿辆车在路上,目前没有一辆是自动驾驶的,到20年后,这10亿辆车将都能实现自动驾驶,虽然我们仍然可以选择自己驾驶。这个趋势现在已经非常清晰。五年前,关于技术的成熟度我们还不确定,但现在可以非常肯定,传感器技术、计算机技术和软件技术已经非常成熟,我们将能够实现这一目标。传统汽车公司想法的转变有两个关键因素。首先,特斯拉的影响力不容忽视,但最重要的影响力可能来自中国。中国的新兴电动汽车公司,如比亚迪、小鹏、蔚来和小米等,它们的技术非常先进,自动驾驶能力也非常出色,并且已经开始在全球范围内推广。这些技术的突破真正设立了未来汽车必须具备强大自动驾驶能力的标准。我认为世界已经发生了变化。虽然技术成熟的过程花费了一些时间,我们的认知也在不断发展,但现在我认为,自动驾驶的未来已经非常接近现实。同时,Waymo是我们重要的合作伙伴,你知道,Waymo目前已经在旧金山等地广泛应用,且越来越多的人开始选择使用它。
问题17:我想问一下关于昨天发布的新模型,特别是Cosmos、NIM。这些模型能够在智能眼镜上运行吗?或者在开发这些型号时,有考虑过智能眼镜吗?因为考虑到行业发展的方向,似乎未来很多人会通过智能眼镜来体验AI代理。
黄仁勋:我对可以连接到云数据的智能眼镜感到非常兴奋。比如我们在阅读时,智能眼镜可以帮助你理解不认识的单词。AI的应用与可穿戴设备和虚拟现实技术(如眼镜和手机)相结合,所有这一切都非常令人兴奋。我会使用Cosmos的方式是,Cosmos在云端提供视觉理解。如果你想将其嵌入到设备本身中,那么你可以使用Cosmos来提取一个小型模型。因此,Cosmos成为了知识转移的工具,并将它的知识转移到一个更小的AI模型中。之所以能做到这一点,是因为较小的AI模型会变得非常专注,不容易被泛化。它变得非常领域特定,因此可以将知识更精准地转移,并将模型蒸馏成一个更小的版本。这也是为什么你总是从构建基础模型——那个大的模型开始,然后逐步构建更小的模型,最后得到更小、更精细的模型进行蒸馏(指将大模型的知识转移到小模型中,以提高效率)的原因。
问题18:在工作过程中,一个主要的挑战是处理与Windows和DirectX相关的各种问题。你打算采取哪些措施来帮助团队减少实施中的摩擦,并激励微软与你合作,确保他们改进DirectX?
黄仁勋:无论DirectX API如何发展,多年来,微软始终保持着与行业的高度合作精神。我们与DirectX团队的关系非常良好,正如您所预见的那样。因此,在我们推动GPU技术进步的过程中,如果API需要改变,他们对此感到非常失望。大部分使用DLSS时的工作,其实并不需要更改API。实际上需要调整的是引擎本身,因为它基于语义,需要理解场景,而不仅仅是简单的函数调用。因此,场景更多是通过虚幻引擎、寒霜引擎或其后续引擎来构建的。这也是为什么DLSS几乎已经被整合进现今所有主流引擎的原因。一旦DLSS的底层架构搭建完成,更新DLSS核心时,即使游戏是为3D开发的,它仍然能够利用DLSS 4的一些优势,后续版本也会类似。因此,我们为场景理解AI搭建了基础设施,这种AI可以基于场景的语义信息进行处理。
问题19:我知道人工智能在多种不同方式中使用起来有些复杂,但我很好奇你是否认为生态系统中还有缺失的部分。
黄仁勋:我确实认为有。首先,语言处理和认知人工智能正在逐步提升AI的认知能力。这需要多模态的支持和大规模推理等能力。同时,人工智能并非单一的模型,而是由多个模型组成的系统。代理型AI本质上是这些模型的集成,比如用于检索、搜索、生成图像、推理、规划等模型。这种多模型系统的创新,推动了人工智能的应用,而不仅仅是基础AI的发展。随着基础AI的不断改进,行业也意识到,推动人工智能发展的关键是物理人工智能。物理AI同样需要基础模型,正如认知AI依赖基础模型一样,GPT-3就开启了强大能力的新篇章。为了实现物理AI的基础模型能力,我们发起了Cosmos项目,以达到这一能力水平并将其推向全球。一旦达成,这将激活一大批终端应用案例和下游技能,基础模型还可以作为教师模型,指导其他任务的执行。同时,Cosmos与Omniverse的合作,旨在将两个系统连接起来,形成物理落地的基础框架,从而控制生成过程。通过这种方式,我们可以得到明确、可信的结论。总之,Cosmos和Omniverse的结合,可能成为未来机器人产业发展的关键起点,这是行业中目前缺失的核心要素。
问题20:有关于贸易和关税的问题,它们仍然在当选的美国总统的脑海中占据重要位置。关税和贸易政策可能会影响到我们所有人。你对此有何担忧吗?
黄仁勋:我不担心这个,我相信政府会为自己的贸易谈判做出正确的决策。我们会根据情况做好自己能做的。
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有