AI 的下个“万亿美元机会”在哪里?

AI 的下个“万亿美元机会”在哪里?
2024年04月19日 20:01 AI科技评论aitechtalk

谁能抓住 AI 操作系统模的机会,谁就能成为科技行业的“扛把子”。

作者丨董子博

编辑丨林觉民

AI 风行一年,最大的市场机会,却不在大模型本身。

2023年,投身 AI 的入局者不少,“群模乱舞”之下,玩家大概可以分成几类。

大模型时代的下策,是单做模型,意在用技术力挤开市场大门,片面关注在模型能力、参数,硬要对标技术前沿,做最“牛 X”的大模型。

这类现象在去年上半年最火,ChatGPT 掀起的热潮也捂热了不少人的大脑,但实际做下来,却总发现要拿下技术,终归逃不开大模型的 Scaling Law,投入深不见底,技术差距也无法一时弥补;产品缺乏新意,难以做到与市场需求匹配,自然也难以维持高额的算力、人员支出。

而随着资本市场渐冷,去年,这一批人已经不少,倒在了理想主义的大门前,败于“反复造轮子”带来的生产力浪费。

而中策,是模型和产品两手抓,用大模型能力带动 AI 产品的开发,为人工智能找一个能够实际落地、产生价值的安身之所。

曾有人说,大模型当下的市场思路,是把一颗上好的松露,放进油纸袋子里包好,放在顾客面前——无论多好的品质,吹到天上,食客不知道怎么吃,也不知道怎么才好吃;

而有经验的厨师,会把松露辅以牛排、鳕鱼、鹿肉等本就鲜美的食材,最大程度发挥松露的优点,把那些“传统”的菜式“重做”一遍。

要制造出 AI 的杀手级应用,也是一个道理:让 AI 发挥长处,用智能重新为原有的场景赋能。如果能找到这样一个恰到好处的结合点,很容易就能捧出下一个字节和拼多多量级的公司。

而归根结底以上两点,终归不是上策。更大的格局,是用一个更庞大的体系,把无数的“杀手级应用”纳入自己的下游,以技术推动产业和世界的变革,在时代齿轮的扭矩中采掘一个数十年难得的机会——

一个用 AI 操作系统改变世界的机会。

1

人机交互每变革一次,

就诞生一个万亿美元规模的机会

在过去一年间,与诸多 AI 业内精英交流的过程中,AI 科技评论总能听到一个声音:

人机交互,才是让一家超级科技公司诞生的“金钥匙”。4月16号在深圳举办的百度 2024 Create AI 大会上,百度集团执行副总裁、百度智能云事业群总裁沈抖,讲了这么一个故事:

(百度集团执行副总裁、百度智能云事业群总裁沈抖)

从最早期,人类与计算机的交互靠的还是布线板,工人手动插拔电缆、转动旋钮,人机交互甚至是个“体力活”;

而随着汇编语言、汇编器、高级编程语言和编译器的出现,人类这才能用一种“类似”交流的方式,以一种“语言”和计算机沟通;

时间轴再次推进,很快,单机算力再难面对正急速增长的市场需求,云计算应运而生,人类也不再满足同时与一台机器“对话”,而是要按需与多台机器形成的“集群”协作,把人机交互又推上了一个等级;

而到了今天,AI 大模型的出现,再次给人机交互带来了新机会——以编程为例,程序员不必再从语言学起,直接使用自然语言,在 AI 的帮助下,就能实现自己想要的功能;

也是如此,编程也就不再是人类与计算机“斗智斗勇”,而变成了人对 AI“许愿”。

在人工智能慷慨的帮助下,“人人都是开发者”的愿景已经不远。

回看这个过程,如同耕者在春季翻开土壤,无数的生机因此出现,每一次人机交互方式的新革命,带来的都是一次科技行业万亿美元规模的契机。

抓住了这个机会,苹果做出了第一台个人电脑,后又在移动互联网时代引领风潮;微软做出了第一个可视化的操作系统,又利用办公软件奠定了今天的办公流;而在云业务的加持下,亚马逊在二级市场20年来狂涨近300倍,从一家电商平台起家,跻身今日头部科技公司的行列……

细心观察,人们会发现:这些万亿美元市值科技公司的诞生,都脱不开他们在技术革新的浪潮中,抓住了一个能够改变人机交互方式的机会。

开头提到,当下大模型势头正盛,如果单纯把 AI 看作是一个技术或一个产品,那么人工智能真正的潜力就仍未被完全挖掘;

相反,只有把 AI 的能力和矩阵集成为一个操作系统,管理硬件资源和软件服务的运行池,提供对外的服务接口,并借此为人机交互带来新的变化,才有可能撬动这个万亿美元的机会。

而要做这样一个操作系统,在人机交互逐鹿之战中问鼎,又谈何容易?

2

做 AI 操作系统,

高性能异构计算是“硬门槛”

“大模型不是免费的午餐。”在大会上,沈抖如此讲道。想要让 AI 操作系统能跑起来,算力是一个永远无法跨过的话题。

去年年初,在一众分析师的论断中,算力并不是一个关键因素:毕竟算力是一个“金钱游戏”,只要钱够,能砸下来足够多的卡,这个问题也就自然迎刃而解。

然而一年过去,越来越多的人这才发现,当模型参数量级越卷越大,“金钱游戏”所需的金钱量级,也正在超出大多数公司能承受的范围。

如此,算力问题,单靠“砸钱”也就再难得出一个令人信服的答案。

连 AI 大模型的“领头羊”——OpenAI 的 CEO 山姆·奥特曼都不仅一次公开抱怨手里的算力不足。至少在当下看来,算力问题正强硬地制约着 AI 的发展速度。

大模型的计算也需要“降本增效”,降低算力浪费是一个重要的途径。

如何让万卡集群如同一张卡一样“通力合作”、让性能可以线性扩展、任务间不产生间断,这给 AI 操作系统的算力集群设计、调度和容错提出了巨大的挑战。

而新近推出了 AI 操作系统“万源”的百度,正通过万卡集群上的有效训练时长占比超过了98.8%,线性加速比和带宽有效性都达到了95%的“尖子生”成绩,让业界看到了新希望。

(百度智能云发布新一代智能计算操作系统——万源)

而仅解决算力浪费问题,似乎还并不足以一劳永逸地完成大模型的“降本增效”——在国内,“禁运”带来的影响还在持续,要凑齐运载大模型所需的万卡算力,使用多种性能不同的芯片异构计算,几乎成了一个必选项。

异构计算,让不同厂家、不同代际、不同性能的芯片互联互通,是一个巨大的难题。

过去的通识是,异构计算只能用不同的芯片解决不同的任务;要把型号不一而足的芯片,放进同一个任务里——尤其是训练任务——几乎是天方夜谭。

要迎难而上,解决异构计算的效率问题,就不得不需要一点“黑科技”。

而要做 AI 操作系统,百度在算力层的底气,就是他们已经解决了这个“不可能”的难题,屏蔽掉了不同芯片之间的差异,更是给了用户选择芯片组合的自由权。

在百度的异构计算平台“百舸”上,单一训练任务下,多家厂商的上万张芯片相互协作,百卡性能损失3%,千卡损失不超过5%,硬生生用技术把异构算力协作的效率提了上来。

也正是如此,芯片的“卡脖子”难题也就此被百度化解:不仅可以摆脱对单一芯片的依赖,创建一条更具弹性的供应链,把风险降到最低;还可以让成本更加可控。

百度的解决方案,一是将底层通信和上层算子的优化和实现拆分开,让专业的人做专业的事,自己专门负责底层加速库 AIAK 的开发,给异构计算搭好一个“大舞台”,让各家芯片来到百度的集合通讯库都可以跑通;

二是在加速库里做好并行框架的实现,优化并行策略,通过自适应算法自动实现TP(张量模型并行)、MP(模型并行)、PP(流水线并行)不同的并行策略的参数设定,迅速拿准并行化策略,处置训练任务的底层设置。

三是在卡间通信上,整合网络协议,GPU层面上主要通过 NVLink,而当算力走出机器,百度主要使用的还是 RDMA,对于一些特殊的芯片,百度也有一些相当具体的实现策略。

既然短期内多款芯片并存是现实局面,那么与其怨天尤人,不如主动拥抱。百度让“百舸”争流,主打的就是主动拥抱多样化的芯片生态,在异构计算上做到极致。

脱离了“云”的硬件,AI 操作系统的实现也就成了“空中楼阁”——而云智一体,协同软硬件优化也正逐渐成为不少实力的大玩家的共识。

而要跑到一万张卡,要让一万张卡跑到同一个任务里,还是多家芯片组成的“多国部队”,对于任何公司来说,都是个难以逾越的鸿沟。

今天的百度,已经跑出了一条路——一云多芯、单任务多芯片的异构之路

(业界领先的单一任务一云多芯大模型训练解决方案)

而其他玩家想要跑通这一套体系,进而在这一套体系上打造新的 AI 操作系统,在 AI 和云计算领域多年的积累和落地则必不可少。

3

工具链,“低成本”有“高难度”

如果把计算能力看作 AI 操作系统的“内核”,那么工具链就是链接着开发者与 AI 的“中间层”。

归根结底,算力和大模型再强,使用者用不顺手,没法把大模型用进场景,将 AI 的能力用到极致,AI 的操作系统就也只能是空谈。

到了这一层,AI 操作系统面临的就不再只是一个技术难题。如何理解广阔市场和纷繁复杂的场景,也成为了一个必须被回答的问题。

一方面,面对不同预算和需求的用户,AI 操作系统必须足够灵活,给出多种能够最高效解决问题的方案。

尽管去年以来,市场对大模型原生应用的需求正不断地提升,但在使用中,“性能、速度、价格”的“不可能三角”,也让不少人望而却步——

如果只用一个模型,参数规模小了解决不了问题,参数规模大了又难以打平成本、满足高并发的需求。

这也就要求 AI 操作系统的提供方,不能一味抱持着一以贯之的思路,面对不同的场景,要提供不同规格的基座模型选择,不让用户在操作系统里花冤枉钱。

以百度为例,在已经获得了不少认可的文心 4.0 基础上,千帆团队又训出了 ERNIE Speed、Lite、Tiny 3个不同量级的轻量化模型,分别针对不同用户对大模型的不同需求。

而在 ModelBuilder 提供的模型路由服务之下,针对不同难度的任务,AI 操作系统万源也可以自主选择最合适的模型完成调用,实现效价比的最优,在效果基本持平的情况下,将推理成本下降了30%。

而在自有模型之外,千帆也支持 Llama3、Baichuan 等等第三方的模型产品,主打一个“客户想要什么,我们就提供什么。”

一方面,大模型让人机交互方式走向自然语言,背后也需要一整套的 AI 能力和工具的支持。

一个更好的 AI 操作系统,要让用户可以更轻松简便地完成应用的开发,甚至只需输入一小段对应用功能的描述,甚至不用写一行代码,就可以获得实际解决自己需求的应用。

在百度的万源体系下,内置的 AppBuilder、AgentBuilder 两个应用开发平台,不仅已经让上述的想象落进了现实,而且两个平台的 SDK 也支持二次开发,让开发者细致入微的个性化需求得到满足。

不仅如此,以百度 AppBuilder 开发的应用,可以一键发布至百度搜索、微信公众号等平台,让应用的分发不再困难;也可以通过 API 或 SDK 的方式集成到自己的系统中。

另一方面,纷繁复杂的场景,使得模型的精调和完善的工具组件体系成为了必要。

在百度万源中,支持开发的官方精选组件数,已经从上次的11个,高速增长到了 54 个。其中大模型的组件、 AI 能力的组件、插件工具以及数字人的组件等等种类多样,不一而足,同时还支持一次鉴权全部接入,省去不少繁琐的手续。

如同搭积木一样,用户搭配组合不同的组件,拼装之后就可以成为一个工作流,完成符合自己使用需求的大模型定制。

一个人如果长年从事 To B 生意,大多都会发现,To B 的底层逻辑总是“朴实无华”:如何花小钱,办大事。

“简单是终极的复杂。”沈抖用这句话开始了自己在 Create AI 开发者大会上的演讲,就是意在减轻开发者的负担,为用户提供极简的开发体验。

当下,百度整个大模型平台的服务客户数在一个多月里又增长了1万,已经突破了8.5万。通过千帆精调的模型数,则涨到了 1.4万,而开发的应用数现在也超过了19万。

便宜易用的工具链,让百度的 AI 操作系统体系已经有了一个不浅的用户池子。而积累起了用户,生态怎么做,则又成为了百度万源的“One more thing”。

4

做生态,要“譬如北辰”

操作系统的成功,绝不只是技术上的成功。

十几年,智能手机刚刚问世,也并不只有安卓、IOS 两家独大——塞班、黑莓、Windows等等大批的操作系统百花齐放,激烈竞逐。而在厮杀的最后,只有安卓胜利了。

究其本质,还是得开发者得天下。

而得到了开发者,怎么把开发者留在操作系统里?怎么让开发者找到用户?赚到钱?这也考验着 AI 操作系统开发者在市场领域的能力和资源。

在 AI 时代,市场角度上“客户”和“伙伴”的概念,正因为被进一步降低了的开发门槛而模糊。对于 AI 操作系统的开发者生态,一个点是把他们引进来,一个点是把他们留下来。

引进来,靠的是直接的激励,以及加入平台的便捷程度。这就要求 AI 操作系统足够开放,也能投入足够的成本用于激励,开办开发者大赛,让更多人加入进 AI 原生应用开发的行伍。

在争夺开发者的大战中,AI 操作系统的先发优势显然更加明显——一方面是能够首先获得一个更大的开发者群体,并且让他们更早在平台上完成产品,获得收益;另一方面是触达 AI 原生应用的 B、C 端用户更早,也能更早让开发者形成粘性,留在 AI 操作系统上。

而提到先发优势,就又不得不提到百度。无论在大模型技术、大模型生态,还是 AI 操作系统上,百度都是国内一众跟进者的领头羊。

在千帆的应用商店上,已经有300个 AI 原生应用上架,而第一批上线的 App 已经开始拿到了分润。

而要让人留下来,就得让开发者能够在平台上持续地获得商业收入和正反馈,最终实现用 AI 操作系统的“发家致富”——这才是 AI 操作系统能够提供给开发者的核心价值。

比如,在千帆平台上卖的最好的,是一个叫 ChatPPT 的演示文档助手,依靠亲民的价格和好用的功能,百元左右的价格,至今已经售出了上千单。

而有一家公司,短短一个月的时间,就在千帆发了20多款应用,涵盖背古诗、写作文、市场营销、绘图,一个月的净利润就有几百万。

如果简单的工作就能带来不错的收入,开发者怎么会不愿意留在平台上?

尽管已经有了不错的成绩,但要扭转用户的使用习惯,终归还是一件不容易的事情。

一方面让开发者看到 AI 的价值,另一方面也要实打实地给开发者带来生产力的提升和经济上的收益。

而万源的生态体系还不仅如此:

对上,万源链接开发者,通过不断更新的能力和接口,让 AI 原生应用大繁荣;

对下,万源链接芯片厂商,扩大芯片适配的队伍,给开发者提供更简便易用的异构算力;

向左,万源可以链接企业用户,让他们可以基于万源个性打造自己的 AI 操作系统;

向右,万源则链接智算中心,把更高效的计算方案推广给更多的用户。

这条路,如同《论语》中说的“譬如北辰,居其所,而众星共之。”用更好的生态,将产业链路中的每一环都围绕在 AI 操作系统的身旁,进而创造一个以 AI 为轴的更广阔的生态系统。

5

结语:1+1>2

技术、产品、市场矩阵,要做成一个 AI 时代的操作系统,这三者一个也不能少。

作为中国第一个提出 AI 操作系统概念的大厂,百度的万源看起来似乎并不是一个新技术、新产品,而更像是当下百度智能云技术产品体系的又一次整合。

有人或许会问:这只不过又是一个新概念,拼拼凑凑算什么操作系统?要说 AI OS,集成了 New Bing 和 Copilot 的 Windows 才算是真正的 AI 操作系统。

而事实上,万源的提出,很可能是百度在2024年最令人激动的新动向:将诸多技术产品在操作系统上兵合一处,正很好地向外界展现了百度作为一家 AI 大厂,在人工智能领域上“舍我其谁”的野心。

而之所以没有选择 Windows 的形态,而选择了 To B,百度万源对标的反而是微软的 Azure,做自己更擅长的赛道,找离钱更近的领域。

去年,不少人大谈 AGI,梦想着在未来,人工智能将如同科幻小说里写的那样,改变世界;

而仍有不少人,“枯燥”地打磨技术和产品,深入行业和场景,只做最落地的事情——他们也要改变世界,而且他们要在今天就一点点地改变世界。

操作系统,是科技界在人机交互上的又一次爆炸性的机会。而要抓住这个机会,就必须用一整套体系形成规模效应,让1+1>2。

在未来,用 AI 操作系统提供全栈 To B 服务,一站式解决用户的问题,必然是优秀 AI 大厂的大势所趋,也是云大厂转型的必然方向。

其他云大厂要加入这场竞争,不仅需要有足够优质的大模型作为支持,还要有足够深厚的云技术、场景积累,能做“模型-开发-市场”的全链路支持。如同一个水桶,不能有一块短板。

把万源 AI 操作系统当成一块沃土,在上面长出的应用——无论是百度来开发,还是其他开发者来开发——都能够以多种多样的形式,走进 B 端和 C 端的很多场景,进而带动公司在云领域上的收入。

如此看来,万源称得上是百度智能云最坚实的基石。

“我们终极的成功,”百度集团副总裁侯震宇在接受采访时讲道,“就是希望我们的 ModelBulider 能够生产更多的模型,我们的 AppBulider 能够产生更多的应用,这就是我们最大的理想。”

(面对这个万亿美元的 AI 机会,AI 科技评论将持续跟进观察,欢迎感兴趣的读者加作者微信:william_dong,探讨认知,分享八卦。)

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部