AI时代,英伟达藏不住的“野心”!

AI时代,英伟达藏不住的“野心”!
2023年03月22日 17:22 猎云网

AI群雄逐鹿,英伟达也在深夜放大招。

来源:猎云精选;文/邵延港

最近一周,人工智能带来了一次又一次颠覆,Open AI、微软、谷歌先后出手将人工智能卷出了新高度,现在轮到英伟达在夜里放大招了!

在3月21日晚上11点开始的英伟达第14次GTC大会上,英伟达发布了ChatGPT设计的推理GPU、AI超级计算服务DGX Cloud、突破性的光刻计算库cuLitho、加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations等,以及与Quantum Machines合作推出了全球首个GPU加速量子计算系统。

值得注意的是,在大会上英伟达创始人黄仁勋发表了一段时长78分钟的演讲——《切勿错过 AI 的决定性时刻》,其中就三次强调“AI的iPhone时刻已经到来”的论调,黄仁勋称英伟达从生成式AI变革初期就已经参与进来。早在2016年,他就向OpenAI亲手交付了第一台DGX AI超级计算机,用于支持ChatGPT的大语言模型的突破。

ChatGPT发布之后,在很多时间内用户量就达到1亿,引爆全球的大模型开发市场,作为AI芯片行家里手的英伟达,势必要延长触手,深入布局。

英伟达在此次大会上“软硬兼施”,向AI时代吹响了冲锋号角。

ChatGPT带来大模型浪潮,英伟达祭出专用GPU

英伟达是一家芯片公司,芯片产品的发布引起诸多关注,不过,市场将关注焦点定在了大模型专用的GPU芯片。

为了支持像ChatGPT这样的大语言模型推理,英伟达直接祭出专用GPU芯片H100 NVL 。它是基于去年已经发布的H100的改进版本,配备双GPU NVLink,将两张拥有94GB HBM3显存的PCIe H100 GPU拼接在一起。基于NVIDIAHopper 架构的H100配有一个Transformer引擎。

黄仁勋称,相较于目前唯一可以实时处理ChatGPT的HGX A100,一台搭载四对H100和双NVLINK的标准服务器能将速度提升10倍,并且还可以将大语言模型的处理成本降低一个数量级。黄仁勋也将NVIDIA DGX H100称作全球客户构建AI基础设施的蓝图。

据英伟达公布信息,H100 AI 超级计算机现已开始上线。Oracle Cloud Infrastructure 宣布配备H100 GPU 的新OCCompute 裸机 GPU 实例在一定条件可用。亚马逊云科技发布了即将推出的P5实例EC2 UltraClusters,其规模可扩展到2万个互连的H100 GPU;微软Azure发布了其H100虚拟机ND H100 v5的私人预览版;META 现已为其内部的AI生产和研究团队部署了由 H100 驱动的 Grand Teton Al 超级计算机;OpenAl 也将在其Azure超级计算机上使用H100来支持其持续进行的AI研究。

此外,英伟达还发布了用于AI视频生成的通用GPUL4,以及针对图像生成的L40和为推荐系统和大型语言模型的AI数据库所设计Grace Hopper超级芯片。

值得注意的是,英伟达自己也打造了大模型突破背后的引擎,即为最新版DGX超级计算机。

据悉,在2016年8月,英伟达将制造出来的第一台超算DGX-1捐给了OpenAI,并亲自题字“致Elon和OpenAI 团队,为了计算和人类的未来”。

英伟达最新版本的DGX搭载8个NVIDIA H100 GPU,它们连接成为一个巨大的GPU。黄仁勋透露,该款DGX现已全面投入生产。

黄仁勋表示,最初作为AI研究仪器使用的NVIDIA DGX超级计算机现已在世界各地的企业中全天候运行,用于完善数据和处理Al。《财富》100强企业中有一半都安装了DGX AI超级计算机。

不过,英伟达也强调ChatGPT仅是一个起点。在ChatGPT发布之后搅动的一场浪潮中,全球范围内涌现出一批进军大模型的企业。未来大模型专用GPU迎来爆发,英伟达在短期内找不到竞争对手,或将处于绝对的优势地位。

英伟达带来了一朵“云”

在“传统”的发布芯片硬件之外,此次在软件产品也格外吸睛,尤其是英伟达发布的DGX Cloud人工智能云服务。

DGX Cloud是一项人工智能超级计算服务,它可以让企业快速访问为生成式人工智能和其他开创性应用训练高级模型所需的基础设施和软件。

黄仁勋称,英伟达的DGX Cloud服务可让企业和软件开发人员通过浏览器登入,即可获得英伟达的超级计算机DGX的AI算力。英伟达表示,其云端服务单个实例可由8块A100或H100芯片与订制网路技术组合在一起,采取月租模式。

据悉,租用的DGX Cloud起价为每个实例每月36999 美元,租金中包括使用带有八个 Nvidia H100或A100 GPU和640GB GPU内存的云计算机。价格包括用于开发AI应用程序和大型语言模型的AI Enterprise 软件。

目前,英伟达与微软Azure、谷歌OCP、Oracle OCI等其他云厂商一起托管DGX Cloud基础设施。其中,Oracle Cloud infrastructure是最早合作的云服务提供商;微软Azure预计将在下个季度开始托管DGX Cloud,该服务将很快扩展到Google Cloud等。

黄仁勋表示,此次合作将英伟达的生态系统带给云服务提供商,同时扩大了英伟达的规模和影响力。企业也将能够按月租用DGXCloud 集群以便快速、轻松地扩展大型多节点训练工作负载的开发。

对于生成式AI,英伟达也发布了NVIDIA AI Foundations云服务系列,它为需要构建、完善和运行自定义大型语言模型及生成式AI的客户服务。

据悉,AI Foundations云服务系列包括NVIDIA NeMo,它用于构建自定义语言文本-文本转换生成模型;Picasso视觉语言模型制作服务,它适用于构建使用授权或专有内容训练而成的自定义模型;BioNeMo,则用于药物研发行业的研究人员。

对于英伟达而言,DGX Cloud的出现代表英伟达向云优先战略的转变,英伟达正在向外界传达他们现在既是一家硬件制造商,也是一家软件公司。

AI时代,英伟达的野心

无论是专为大模型研发的GPU,还是DGX Cloud,英伟达无一不再展示其在AI时代的“野心”。

黄仁勋在演讲中表示,加速计算和AI的出现恰逢其时。摩尔定律正在放缓,各个行业正在应对可持续发展,生成式AI以及数字化等强大的动态挑战。各个行业的企业正在竞相进行数字化转型,希望成为软件驱动的技术公司,成为行业颠覆者而不是被颠覆者。

英伟达发布的一整套软硬件设施,可以让客户可以更快、更容易地使用人工智能应用程序,站在更多创业公司的背后提供服务。

尤其是ChatGPT商务出现加速了AI的商业化落地,英伟达面对的是一个无比巨大的蛋糕,另一方面,AI也将带来对当前行业的颠覆。据悉,Adobe正在与英伟达一起构建一整套用于未来创作工作的新一代Al;Shutterstock也在与英伟达一起训练一个生成式文本-3D转换基础模型,以简化详细3D资产的创建。

英伟达此次深夜放大招的最终目的是要通过自己将AI带到各行各业,但英伟达的野心并不局限于此。

英伟达发布了一款名为cuLitho的计算光刻库,也将为半导体行业带来新的革命。黄仁勋称,随着当前生产工艺接近物理学的极限,cuLitho 将助力ASML、TSMC和Synopsis等半导体领导者加速新一代芯片的设计和制造,这项突破将加速计算引入到计算光刻领域。

黄仁勋称,计算光刻是芯片设计和制造领域中最大的计算工作负载,每年消耗数百亿CPU小时。大型数据中心24×7全天候运行,以便创建用于光刻系统的掩膜板。这些数据中心是芯片制造商每年投资近2000亿美元的资本支出的一部分。cuLitho能够将计算光刻的速度提高到原来的40倍。

此外,除了用于计算光刻的cuLitho,黄仁勋宣布英伟达已更新了100个加速库,包括用于量子计算的cuQuantum和新开源的CUDA Quantum和用于组合优化的cuOpt等。黄仁勋表示,全球英伟达生态目前已有400万名开发者、4万家公司和英伟达初创加速计划中的 1.4万家初创企业。

截至美东时间3月21日,英伟达市值6471亿美元,是全球第五大科技股,到AI时代,英伟达还将狂飙一段时间。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部