适合AI的云长什么样?全球云计算老大哥给了一个答案

适合AI的云长什么样?全球云计算老大哥给了一个答案
2024年12月05日 23:15 光锥智能

文|白 鸽

编|王一粟

“性价比、降成本、实用AI”。在亚马逊云科技2024年度re:Invent大会上,这些词成为了亚马逊云科技All in生成式AI的关键词。

当前,大模型行业整体的风向已经发生转变,从原本All in预训练大模型,逐渐转为不断收缩预训练规模,加速大模型的推理和应用。

有位业内人士跟光锥智能表示:“未来全球能够做通用大模型预训练的玩家不会超过50家。”

这也就意味着,越来越多的企业开始转型做大模型的推理和应用落地,而这些玩家最典型的特征,就是会更加注重投入产出比,以及如何通过大模型为自身实现降本增效。

但大模型的落地应用无疑将是一场漫长的战争。就像亚马逊云科技新任 CEO Matt Garman所说:“人工智能是一场没有终点的竞赛,它将永远持续下去。”

作为全球云计算厂商的老大哥,生成式AI无疑是亚马逊云科技不容错过的赛道。

为满足更多大模型落地应用需求,在这场大会上,亚马逊云科技全方位展示了从计算、存储、数据库、推理、人工智能、生成式AI应用等方面的体系化更新成果,并已经构建了从底层AI芯片,到中间大模型平台,再到上层生成式AI应用的完整AI技术栈和基础设施。

通过此次大会也能够看出,从去年的相对低调,到今年年中的“转稳为攻”,再到年尾的“全面开战”,亚马逊云科技在生成式AI的这场“无尽”的战争中,开始支棱起来了。

此外,亚马逊首席执行官Andy Jassy在演讲中也明确了亚马逊云在生成式AI时代的发展路径,“我们一定会优先考虑那些真正对客户重要的技术,专注为客户解决实际的问题。”

也就是说,从真实客户需求出发,亚马逊云科技通过利用自身在基础设施、工具/模型和应用三层面的积累和实力,能够给客户多提供了一个“快、好、省”的选项。而这无疑能够让亚马逊云科技,再次坐稳云计算行业的“铁王座”。

全新一代芯片+训练集群,让大模型训练部署更具性价比

经济基础决定上层建筑,云计算的基础同样也决定了大模型发展的未来。

Andy Jassy表示:“当生成式AI应用达到一定规模时,计算成本将至关重要。”但目前全球范围内,大多数生成式AI应用都主要依赖某一种芯片进行计算。

因此,行业希望能够拥有具有更高性价比的解决方案。

那么,人工智能时代真正的的基础设施究竟是什么样的?亚马逊云科技高级副总裁Peter DeSantis提出构建人工智能基础设施的两个基本支柱:

  • 构建更强的服务器;
  • 构建更大规模、更高效率的服务器集群;

而不管是服务器还是服务器集群,都离不开最基础的、高性能的GPU芯片。

Trainium是亚马逊云科技自研的AI芯片,2020 年首次推出,曾一度被认为是训练AI模型最具效率的芯片。在此次re:Invent大会上,亚马逊云科技宣布Trainium2芯片,以及由Trainium2 驱动的EC2实例正式可用,并推出Trainium2 Server和Trainium2 UltraServer,这将使用户能够以更高的性能和成本效率训练和部署人工智能模型。

据介绍,Amazon EC2 Trn2实例,集成了16个Trainium2芯片,由高带宽低延迟的NeuronLink技术实现互连,单节点提供20.8 pFLOPS FP8算力,相较GPU实例,Trn2实例的性价比高出30%至40%,专为生成式AI训练和推理而构建。

在测试中,与其他云服务商的类似产品相比,使用Amazon Trn2 EC2实例的Llama 3.1 405B 模型token生成吞吐量提高了三倍以上。

目前,Adobe、Poolside、Databricks、Qualcomm等创新公司已大规模投入使用Trainium2。

此外,Matt现场还宣布将在2025年推出Trainium3芯片。Trainium3是亚马逊云科技基于3纳米先进工艺制造的首款芯片,是Trainium2性能的两倍,同时能效提升40%。

但面对大模型的训练需求,单一芯片还远远不够。亚马逊云科技通过专有神经元链接技术NeuronLink,将64个Trainium2芯片合成了一个Ultra服务器。其计算容量是现在AI服务器的5倍。带宽也是高达2TB每秒,但延迟只有1微秒。

此外,Anthropic也宣布,下一代Claude模型将在包含数十万个Trainium2芯片的Project Rainier集群中进行训练。

当前,除计算之外,影响大模型训练和推理的,还有存储和数据库等软件系统。此次大会上,亚马逊云科技也同步更新了存储和数据库体系。

存储方面,亚马逊云科技全新发布Amazon S3 Tables,是专为Iceberg设计的全新型存储类别,以应对快速增长的数据湖需求。

据介绍,Amazon S3 Tables可提高所有Iceberg表的性能和可扩展性。针对存储在S3中的Parquet文件类型,可获得3倍的查询性能及每秒事务量10倍提升。这使得S3完全重新定义了面向数据湖的对象存储,提供更好的性能、成本和规模扩展能力。

而当达到PB或EB级别存储规模时,元数据(Metadata)就变得非常重要。元数据可帮助组织了解存储在S3中的对象的信息,从而找到所需的数据。

基于此,亚马逊云科技正式发布Amazon S3 Metadata服务,可自动从对象中提取元数据,并近实时地将其存储在新的S3Tables桶中(Iceberg表),以支持后续使用分析工具进行元数据查询。当对象发生变化时,S3会自动在几分钟内更新相应的元数据。

这无疑解决了大规模数据分析中的元数据管理挑战,让行业用户能够高效发现和利用数据而不必从事重复性的基础设施构建工作。

此外,在数据库方面,亚马逊云科技全新发布了Amazon Aurora DSQL,其具有免运维体验的分布式SQL数据库,可在全球范围内实现跨区域部署,并无限扩展,具备99.999%的多区域高可用性及强数据一致性,同时兼顾低延迟,是迄今为止最快的全球化部署的分布式SQL数据库,比Google Spanner快4倍。

同时,针对NoSQL数据库,亚马逊云科技也发布了Amazon DynamoDB global tables的多区域强一致性功能。至此,无论客户需要SQL还是NoSQL,亚马逊云科技都可以提供在全球可快速扩展的高可用数据库,支持数据强一致支持,并具备极低的读写延迟。

对于现阶段的云厂商们来说,相比于AI大模型服务,算力无疑是最挣钱的一块业务。但面向未来,AI大模型的服务和应用,也将至关重要。Jassy在10月份的财报回顾时表示,今年,亚马逊的云计算业务增长态势明显,该公司的人工智能服务已经创造了数十亿美元的年化收入。

自研+集成百余款大模型!选择的权利,大于一切

“选择决定一切!用模型的时候,需要有很多可选的自由!”Andy Jassy在大会上如此说道。

一句话,就已经表明了亚马逊云科技在大模型服务上的态度,亚马逊云科技通过集成更多的大模型产品,来让用户在选择大模型使用上不受限。而这一结果,也源自于亚马逊云科技内部在做AI应用落地的观察。

“我们惊讶的发现,即使在亚马逊内部,生成式AI应用的开发过程中所使用的模型种类也非常多样化。”Andy Jassy说道,“我们一次又一次地学习到同样的教训,那就是——永远不会有‘一统天下的工具’。正如数据库领域一样,我们过去十年一直在讨论,人们使用的是多种关系型或非关系型数据库。”

但是,这并不意味着亚马逊云科技放弃自研大模型产品。

在演讲中,Andy Jassy也提到,亚马逊云科技内部在开发应用程序的过程中,内部开发者向亚马逊的模型团队提出了各种需求,包括希望模型有更低的延迟和更低的成本;望能够进行微调,以通过标记样本进一步优化应用性能;需要更好的图像和视频处理能力等等。

这些需求非常广泛,现如今的大模型厂商并不能完全满足这些需求。

因此,除集成大模型产品之外,亚马逊云科技也正式发布自家新款“大模型全家桶”—Amazon Nova,涵盖文本对话、图片生成、视频生成,未来不仅要实现Speech to Speech,更要Any-to-Any!

据介绍,新发布的Amazon Nova基础模型共包括四大模型:

  • 可用于简单任务的超高性价比文字处理Micro模型;
  • 三种多模态模型——低成本的Lite模型;
  • 兼具准确性、速度和成本的Pro模型;
  • 用于复杂的推理任务同时也可进行蒸馏定制的Premier模型。

具体到功能方面,Nova模型支持微调(Fine-tuning),蒸馏(Distillation)训练更小的模型,让大模型的使用效率提升的情况下,还能降低成本。同时,Nova模型与Amazon Bedrock知识库深度集成,可用于RAG,以根据自己的数据生成响应。性能层面,Amazon Nova模型与同类模型相比,Nova在所有基准测试中都是相等或更好,极具竞争力。

现场,Andy也晒出了Amazon Nova在CRAG、BFCL、VisualWebBench和Mind2Web等Benchmarks上取得的分数。从成绩中不难看出,其在检索增强生成(RAG)、函数调用和智能体应用方面具有较好的性能。

同时,亚马逊云科技还重磅推出两个全新模型:Amazon Nova Canvas高质量图像生成模型,Amazon Nova Reel高质量视频生成模型。其中,Amazon Nova Reel支持生成六秒的视频,未来几个月将支持生成两分钟视频。

在后续的产品规划中,Andy则表示,在2025年一季度左右,亚马逊云科技将提供语音到语音的模型,允许输入语音,获得流畅的语音输出。在2025年年中左右,将提供多模态输入到多模态输出的前沿模型,支持文本、语音、图像及视频。

目前,亚马逊云科技自研的大模型产品已经上架亚马逊云科技的“模型工厂”Amazon Bedrock,而Premier版本则将于2025年第一季度推出。

除自研大模型之外,为了能够让用户不受限,亚马逊云科技数据和人工智能部门副总裁 Swami Sivasubramanian在大会上表示:“百款基础模型随心挑!亚马逊云科技宣布推出Amazon Bedrock Marketplace,用户可以轻松调用100多款领先的大模型。”

目前Amazon Bedrock还上新了包括poolside Assistant、Stable Diffusion 3.5、Luma AI等在内的大模型。

随着大模型的加速落地应用,推理也将成为生成式AI工作流中的核心。

Matt在大会上也表示:“推理在AI模型的应用中变得尤为重要,尤其是在处理像大型语言模型等复杂模型时,推理要求极高的计算能力和低延迟响应。”

而为了满足更多客户对大模型推理应用的需求,此次Amazon Bedrock也迎来多项能力的升级,使得用户可以通过Amazon Bedrock便捷访问Inferentia和Trainium芯片提供的推理的硬件优化资源。

比如模型蒸馏功能,其能够提升推理速度高达500%,成本降低75%,用户只需提供应用示例提示,Amazon Bedrock会为用户自动完成蒸馏过程,最终获得一个定制的、具备专业知识、合理延迟和合理性价比的蒸馏模型。

面对企业级应用,为防止大模型幻觉问题,亚马逊云科技发布自动推理检查功能,有助于检测幻觉、提供可验证的证据证明大型语言模型的准确性。

对于Agent智能体的应用,则发布Amazon Bedrock multi-agentcollaboration(多智能体协作),可以支持复杂工作流程。在性能方面,Amazon Bedrock还推出了低延迟优化推理,由此,用户可以在使用最先进的大模型基础上,还享受卓越的推理性能。

数据显示,现在每天都有数万名客户使用Amazon Bedrock创建应用程序,比过去一年增长了5倍。而通过Amazon Bedrock,亚马逊云科技云服务也实现既与多家模型提供商有着深厚的合作关系,同时也集成自研大模型产品,最终能够为用户提供最广泛、最优质的功能选择。

开箱即用的AI应用,加速大模型落地

有了底层算力基础设施的支持,有了可以随意选择的大模型平台工具,但想要真正开发出一个优秀的生成式AI应用,却依然会存在非常多的困难。

不仅需要一个优秀的模型,在模型之外,还需要合适的需要合适的安全措施、流畅的语言表达、良好的用户界面(UI)以及合理的延迟表现——用户不希望体验到缓慢或卡顿。此外,还需要一个优化的成本结构。

在Andy Jassy看来,在很多情况下,你会觉得自己有了一个很好的模型,稍加开发就能构建出一个优秀的生成式AI应用。但事实是,你可能只完成了70%的工作。现实是,客户不会宽容那些仍有30%问题的应用。

因此,想要真正开发一款好用且优秀的AI应用,离不开云厂商们提供的能够开箱即用的AI应用开发平台工具。

亚马逊云科技的AI应用平台Amazon Q 为用户提供了丰富的AI应用工具。

其中,Amazon Q Developer,此次全新全新推出三个Agent,用于生成单元测试、文档和代码审查,可以帮助解决这个开发人员端到端的开发问题。

Swami现场表示:“Amazon Q Developer登顶了SWE基准测试TOP1!轻松解决55.8%的软件问题,德甲、美国航空、英国电信都在使用。”

Amazon Q Business,可以理解为是亚马逊云科技为企业提供的数据连接工具,能够为企业数据创建了一个索引,连接不同的业务系统、企业数据源,无论这些数据源来自亚马逊云科技、第三方应用程序,所有这些数据都可以在安全和隐私的前提下进行更好的搜索,并跨越各种数据库与所有企业数据进行对话。

在Q Business之下,亚马逊此次发布了将QuickSight和Q Business的数据全部结合的新功能,通过QuickSight和Q Business以及与之相关联的系统,例如Salesforce系统数据拉入QuickSight报告快速得到更加全面的QuickSight仪表板,使QuickSight作为BI工具变得更加强大。

此外,Amazon SageMaker由于被越来越多客户用来处理和准备他们的数据,用于机器学习的工作负载。因此,亚马逊云科技将其重新定位为服务数据、分析和人工智能需求的中心。

全新发布的Amazon SageMakerUnified Studio,则可以提供整合的数据和人工智能开发环境,允许客户访问组织中的所有数据,并使用最适合的工具。它能够将目前亚马逊云科技各种服务,包括Amazon EMR、Amazon Glue、Amazon Redshift、Amazon Bedrock中独立的Studio,查询编辑器,以及各种可视化工具等,整合到现存的Amazon SageMaker Studio中。

“Amazon SageMaker已经成为所有数据分析和AI的一站式平台,分析工作化繁为简,重新定义了生成式AI的游戏规则。”Swami如此说道。

目前,在全球范围内,各大企业都希望能够通过生成式AI实现降本增效。同时,各大全球企业巨头,在研究生成式AI的同时,也会率先在自己内部业务场景中落地应用。

亚马逊内部同样如此。基于生成式AI,亚马逊已经将生成式AI落地到企业内部多个应用场景中,包括:Alexa 语音助手改造、电商广告创作、手掌支付、无人值守零售服务区和处方药阅读等。

而通过内部复杂数字生态场景所试炼出来的能力,在输出给亚马逊云科技的用户,无疑将能够给用户带来更好的体验。

综上来看,此次亚马逊云科技的重点,则落在了大模型的推理和应用层面,正在全流程降低生成式AI构建的门槛,以及推理和应用的成本。

相比于OpenAI对AGI的追求,无疑亚马逊云科技更注重实际,而这背后,都离不开其“一切从客户真实需求出发”的技术研发准则。

*前述特定亚马逊云科技生成式人工智能相关的服务仅在亚马逊云科技海外区域可用,亚马逊云科技中国仅为帮助您发展海外业务和/或了解行业前沿技术选择推荐该服务。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部