我给数学家们的时间是 700 天。这就是人类作为宇宙已知领域中数学王者的剩余时间。
作者 | Will Bryk
责编 | Eric Harrington
出品丨AI 科技大本营(ID:rgznai100)
“像前端工程师这样的岗位可能在三年内就会消失。这听起来很极端?其实不然——三十年前本来也没有前端工程师这个职位。”
这个惊人预测出自 Exa CEO 威廉·布里克(William Bryk)之口。前段时间,这家由他与华人天才极客 Jeff Wang 在哈佛创立的 AI 搜索引擎公司 Exa,刚刚拿下了英伟达领投的 1700 万美元 A 轮融资。
在硅谷的 AI 新贵中,这对创始人组合格外引人注目:27 岁的布里克提出了“史上最慢搜索引擎”的大胆理念——宁愿花上几分钟返回精确结果,也不要毫秒级的肤浅匹配;26 岁的 Wang 则将向量数据库技术推向了极限,让 AI 真正读懂互联网内容。比方说,圣诞节的这几天推特(X)上开始流传 Exa 制作的一个“年度总结工具”,可以总结你在推特一年来的所有内容,各大博主玩的是爱不释手:
Exa 的“推特年度总结”:https://twitterwrapped.exa.ai/
但比起搜索技术本身,布里克对 AI 未来的预测更令业界震惊:前端工程师职位将在 3 年内消失,2025 年底 AI 将能自动处理任何计算机工作。他还放话,“我给数学家们的时间是 700 天。这就是人类作为宇宙已知领域中数学王者的剩余时间。”这句颇有《三体》里三体人向地球人宣战的味道。
以下是布里克于圣诞前夜发布的最新预言全文《AI 前夜的思考》,经 CSDN 精编处理,让我们一同看看他这么说的依据:
变革前夜
最近和几位朋友聊起 OpenAI o3 模型,他们的第一反应都是难以置信:“大的要来了?”
没错,这一切确实要来了。未来几年,我们将见证一场翻天覆地的变革。这不仅仅是一个历史性的时刻,放眼整个银河系,这都是一个重大转折点。
让人哭笑不得的是,对于这场即将到来的巨变,我们却缺乏深入的讨论。AI 实验室讳莫如深,新闻媒体对此浅尝辄止,政府更是一头雾水。
更讽刺的是,人类文明发展的重大议题,居然要靠社交媒体上的表情包和梗图来讨论。这简直像是一出荒诞剧,但现实就是如此。
接下来,我想分享一些个人对当前局势的思考和见解 —— 权当是为 X 平台上的思想漩涡添砖加瓦吧。
在开始之前,我要强调:这些想法都是未经深入推敲的头脑风暴。由于时间有限,很多观点都没能充分研究和论证,其中难免有不少谬误。但我希望这些想法能给那些正在试图理解这场变革的人带来一些启发。
让我们开始吧。
模型突破与行业变革
说实话,o3 的出现本不该让人感到意外。两个月前,OpenAI 就公布了测试时间扩展图表。计算机发展史告诉我们,这些发展曲线往往都能变为现实,即便看起来再怎么不可思议。真正令人震惊的是,这一切只用了短短两个月。从大学水平到博士水平,AI 的进化速度快得让人措手不及。对人类来说,渐进式的变革令人雀跃,但这种突飞猛进的跃迁却让人心惊胆战。
未来的发展路径其实已经呼之欲出。o3 这类模型最擅长优化那些能够明确定义奖励函数的任务。数学和编程这样的领域,奖励函数相对容易设计;而小说创作这样的领域则难度更大。这意味着在短期内(一年之内),我们将看到能力分布不均衡的模型。它们在数学、编程和一般逻辑推理上可能已达到接近通用人工智能的水平,但在创作文学作品时可能仍显得平庸乏味。虽然更强的推理能力会让模型在各个领域都表现得更加智能,但在那些未经强化学习训练的领域——也就是训练数据未覆盖的盲区——它们仍会犯一些低级错误。从长远来看(1-3 年),随着我们不断将新的领域(情感数据、感知数据等)纳入强化学习训练范围,这些盲点终将被填补。到那时,除了像 Gary Marcus 这样的顽固派,所有人都会承认这些模型已经具备了真正的通用智能。
AI 助手在 2025 年必将成为现实。以 o3 为代表的模型必然能够自如地操作浏览器和应用程序,这类任务的奖励模型设计相对简单。更重要的是,自动化办公这个市场潜力巨大,对于那些需要证明高额投入合理性的实验室来说,这是一个绝佳的切入点。我敢打赌,到 2025 年底,你只需要一句话,就能让电脑自动完成各种涉及网页浏览、应用操作和数据处理的工作流程。
在所有即将被颠覆的学科领域中,数学可能是最容易被 AI 征服的。数学家们在符号世界里工作,几乎不受物理世界的掣肘,这恰恰是大语言模型最擅长的领域。说到底,数学本身并不难,只是人类的大脑不够用罢了。这一点在正则表达式的使用上也同样明显。
研究领域的巨变
一个关键问题是:制作研究级别的合成数据到底有多难?我的判断是,没有想象中那么困难。对人类来说,博士级数学和研究员级数学的差别可能很大,但在 AI 眼中,这可能只是量级上的差异,只需要增加几个数量级的强化学习训练就能跨越。我给数学家们的时间是 700 天——这话听起来疯狂,但如果说 o6 模型无法超越数学家,听起来同样不可思议。所以和本文其他预测一样,我对这个判断的把握超过五成。700 天,这就是人类作为宇宙已知领域数学王者的剩余时间。
目前的形势下,软件工程师又该何去何从?短期来看,这对我们来说简直是天赐良机。每个程序员都相当于被空降了一个技术主管的位置,干得漂亮。对于那些充分拥抱大语言模型的开发者来说,到 2025 年底,编程的感觉更像是在指挥一群小帮手完成各种任务。只要需求描述足够清晰,o4 系统就能完成任何代码提交,错误率低到完全可以接受。当然,这里可能会遇到一个问题:模型的上下文窗口可能容纳不下整个代码库,不过像 Sam Altman 这样的行业领袖显然已经意识到了这个问题。
那么,AI 是否会在短期内取代所有软件工程师呢?答案是否定的。软件工程不仅仅是根据明确的需求提交代码那么简单。与数学家不同,软件工程师需要频繁地与现实世界打交道,特别是要和其他人互动。工程师需要与客户沟通以理解他们的需求,需要与团队成员配合以满足他们的要求。在设计架构或编写代码时,工程师需要考虑大量的组织背景因素。o4 模型还无法做到这一点。但它确实能帮助那些已经理解这些背景的工程师提高十倍的工作效率。
软件行业的变革与重塑
如果软件工程师的效率提升了十倍,是不是意味着我们需要的工程师会更少?从单个公司的角度来看,确实如此,因为精简的团队就能达到同样的产出。但从全球范围来看,对软件工程师的需求可能反而会增加,因为世界显然需要十倍于现在的优质软件。因此,我们很可能会迎来一个由精简团队打造的应用程序黄金时代。每个人、每个企业都能拥有专属的定制化应用。
从更长远的角度来看(在这疯狂的变革中,两年后就算是长远了),软件工程这个行业将会焕然一新,具体会变成什么样很难说。当 o6 系统存在并完全融入我们的应用程序时,这个行业怎么可能还保持原样?像前端工程师这样的岗位可能在三年内就会消失。这听起来很极端?其实不然——三十年前本来也没有前端工程师这个职位。
我们需要后退一步,认识到软件行业每一代都会彻底重塑自己。软件的本质始终是将需求转化为纯逻辑,只是这个转化过程的抽象层次在不断提升,从二进制提升到了 Python。现在的区别在于,它正在向自然语言迈进。
这种向自然语言的转变,将让非技术人员也能参与编程。但最优秀的开发者永远是那些能够在不同抽象层次间自如切换的人。
简而言之,因为软件工程的核心是通过代码来理解和解决组织的需求,所以只有当所有组织都实现完全自动化的那一天,软件工程才会被完全自动化。
实体行业与算力变革
说完了知识工作者,我们再来谈谈体力劳动者。AI 同样会影响这个群体,只是进程会相对缓慢,毕竟机器人还得应对重力和摩擦力这些现实问题。o 系列模型对机器人技术的助力可能并不明显,因为一个需要一小时才能给出结果的模型,对流水线上的机器人帮助不大。虽然基础模型变得更智能,o 系列模型也能帮助训练这些基础模型,但这并不能解决机器人发展的最大瓶颈。我认为真正的瓶颈在于硬件的改进,以及快速可靠的感知和动作模型。这些都需要更长的时间来突破。机器人技术要实现真正疯狂的进步,得等到机器人能自己制造机器人,AI 能自主进行 AI 研究的时候。这可能来自于o 系列模型,但估计还要再等几年。
谈到发展速度,也许我们不该以年为单位来计算,而是该以算力为衡量标准。人类的产出取决于时间,但AI的产出取决于算力,而在研究机构中,AI 的产出正变得越来越重要。这就是为什么各大实验室都在争相建设超级计算集群—— Meta 的 2GW 集群、xAI 追加的 10 万块 H100 芯片等等。
所有的实验室很快就会跟随 OpenAI 的脚步,采用测试时算力模型。有些实验室可能算法不如人,但可以用更多的算力来弥补。就像他们在 GPT-4 之后做的那样,总能追赶上来。在 o 系列模型中,OpenAI 到底掌握了多少独家技术还不好说,但从他们的进步速度来看,这更像是算法上的突破(容易复制),而不是某种独特的数据组合(难以复制)。
在这个讲究测试时算力的时代,究竟是拥有更多算力重要,还是拥有更好的模型重要?这个问题很有意思。一方面,你可以用更多的测试时算力来弥补模型的不足。但另一方面,稍微好一点的模型可能就能节省指数级的算力。
如果 xAI 真能靠着建设超级集群的能力追上 OpenAI,那场面还真有点意思。
无论如何,模型领域的护城河不可能持续超过一年,因为各家实验室的核心研究人员就像棒球卡片一样持续互相交换。更有趣的是,这些实验室的研究员们私下里还会一起聚会玩乐。再加上我觉得,一旦情况失控,研究人员们恐怕会出于理想主义选择分享信息。
AI 竞赛的现状与未来
眼下这个局面还真是挺有意思。AI 竞赛就像当年的核武器竞赛,但区别在于,这场“新冷战”的“美国人”和“苏联人”会在洛斯阿拉莫斯一起狂欢,还在推特上互相调侃:“我赌你们在 2025 年造不出最大的核弹,笑死 :)”
这种嬉皮士般的欢乐氛围,只能维持到政府介入或者出现重大事故为止。
o 系列模型从几个有趣的方面改变了算力扩张的动态。这类模型激发了大规模扩建的热情,因为每增加一个数量级的算力,就能带来明显的性能提升。对算力供应商来说,这种扩展规律简直是天降福音。我猜这个规律正是 Sam Altman 看到后,想要建设万亿规模计算集群的原因。
不过这对英伟达来说可能不是好消息。o 系列模型让推理变得比训练更重要。而我认为,优化推理的芯片比训练芯片更容易设计,所以英伟达在这方面的护城河并不深。
说到这里,我有个大胆的猜想:如果 o 系列模型能够利用全世界的算力来训练最强大的模型呢?想想看,如果我们能把所有 MacBook Pro 的算力集合起来,形成一个推理超级集群,开源阵营是不是就能打败闭源阵营了?这画面想想就让人兴奋。
效率革命与科研突破
除了算力,代码生产效率也成了一个新的指数级增长点。假设某个实验室独享最强大的模型,他们的软件工程师效率就能比其他实验室高出一倍,这样他们就能更快地实现下一个效率翻倍。当然,除非代码速度已经达到极限,实验队列排得老长,实验室又一次被算力所困。(说实话,这里面的博弈关系挺复杂的。要是能看看这些实验室是如何在算力和人力之间做预算平衡,那就太有意思了。)
说到这些计算资源的扩张和知识工作的自动化,听起来已经够疯狂了,但等到科学家们也感受到 AGI 的威力时,事情才会变得真正疯狂。这话是说给你们听的,物理学家、化学家、生物学家们。
首当其冲的是理论研究领域。理论物理学将率先迎来变革。如果数学真的被攻克了(写出这话我自己都觉得不可思思,但这并不影响它的可能性),那理论物理学应该也差不了多远。它同样在符号世界里运作,这正是大语言模型所擅长的。
设想一下,当成百上万个 AI 版的冯·诺依曼日以继夜地工作在路易斯安那的田野间(Meta 即将建设的数据中心所在地),会发生什么?它们会瞬间阅读过去一个世纪里数千名物理学家撰写的所有论文,然后立即吐出更准确的结论。
显然,这就到了故事最难预测的部分。理论物理学、化学、生物学——如果这些对于经过强化学习训练的大语言模型来说不过是小菜一碟呢?现在看来,我们还有什么合理的理由认为它做不到?没错,我们还没有见过这些模型展现真正的创新,但那是因为它们大多还停留在高中或大学水平,而这个年龄段的人本来就不会发明新物理学。现在我们已经达到了博士水平,或许很快就能看到一些创新性的成果了。
科技创新的链式反应
一旦 AI 开始产出新的科学理论,进步的瓶颈就会转移到现实世界中的测试和实验环节。这里的瓶颈主要是劳动力和材料。到那时,如果已经有能自我复制的机器人,那劳动力的问题就解决了。材料问题也能通过机器人挖矿来解决。这个过程会比较慢,毕竟制造和运输实物需要时间,但我们说的是年的尺度,而不是几十年。
以上说的这些都是建立在一个前提之上:AI 和机器人的研发不会遇到新的瓶颈,模型可以自由地学习发展。但这种情况几乎不可能发生。最大的瓶颈将来自人类自身,具体表现在监管、恐怖主义和社会崩溃这三个方面。
监管:政府不会坐视几家旧金山的科技公司用自动化机器人开采地球资源;
恐怖主义:如果政府管不住大公司,那些失业的愤怒民众可能会诉诸暴力;
社会崩溃:除非人们已经被 AI 增强的媒体内容洗脑到无法维持正常社会运转。
如果战争爆发,它反而不会成为瓶颈,而是会加速这一进程。
形势越来越严峻了。2025 年可能是 AI 作为旧金山科技圈在推特上的玩笑话题的最后一年。之后,那些西装革履的外行人就要介入了。所以,趁现在还能欣赏 Sam Altman 的推文,就且看且珍惜吧。
AI 发展的隐忧
这一切会要了我们的命吗?说实话,我更担心人类滥用 AI,而不是 AI 自己失控。
无数历史证明,人类最擅长使用最新技术相互争斗。当武器变得更致命、更自主,赌注也就越来越大。另一个重大风险是 AI 导致的社会动荡。AI 生成的内容可能会引发大规模的混乱、歇斯底里和集体认知障碍。这项新技术,很可能会被利用来剥夺我们几千年的自由。
还有一种风险是 AI 真的失控了。也就是说,它可能会造成我们始料未及的灭绝级灾难。特别是现在强化学习又重新成为主流,AI 开始自主寻找优化方案,而不是单纯模仿人类数据(模仿人类相对更安全)。不过到目前为止,这些模型的核心还是大语言模型,而大语言模型已经表现出了对人类的理解能力。比如说,如果你在提示词里写上“千万别做任何可能害死我们的事”,那现在的举证责任就在质疑者那边了——你得证明它还是很可能会杀死我们。当然,这里面还有很多论点我都没考虑到。
憧憬与期待
说到底,我还是更多感到兴奋,而不是恐惧。
我一直期待的科幻世界终于要来了。它来得比预期快了一点——这也是人们感到恐惧的原因——但在所有可能的发展路径中,我觉得现在这条路也没那么糟。这是个相当不错的时间线。
我特别期待在未来十年内看到这些突破:
一些突破性的物理学发现
由机器人率先建造的火星和月球基地
完美的导师/顾问系统(这个已经很接近了,只需要更好的检索、记忆和个性化)
零副作用的生物增强药物
超级优化的无人机载人飞行
融合能源、地热能和大量太阳能带来的清洁能源革命
还有那些意想不到的突破:AI 天文学家在望远镜数据中发现外星信号?AI 化学家轻松设计出室温超导体?AI 物理学家统一某些理论?AI 数学家解决黎曼猜想?
这些不再是科幻小说,而是触手可及的科技现实。
AGI 前夜
这一切的终点是什么?终有一天我们会达到超级智能的水平,那时候,只要物理规律允许的事情,我们都能做到。我很期待长生不老,也想去看看其他星系。我猜我们还会把这副血肉之躯升级成更好的载体。不过最让我激动的,还是终于能搞清楚宇宙从何而来。十年前,我就开始在日记里写道,我多么渴望知道这个答案,而 AI 将帮助我们找到答案。现在这一切真的可能发生了,简直不可思议。
我们现在生活在一个让这一切听起来都变得理所当然的世界里。每一次 AI 的新突破都让更多的人意识到这一点,o3 就是最新的例子。
如果未来没能变得精彩纷呈,那只可能是因为我们人类自己搞砸了。比如我们的公众认知、相应的政策制定、社会稳定性、国际合作——这些才是可能阻碍这个精彩未来的绊脚石。
人们常说 AI 实验室的人在主导我们的未来。我不这么认为。他们的工作其实早就注定了。他们只是在执行必然会在某个实验室发生的模型架构演进。但是公众认知、政策制定、社会稳定、国际合作——这些都充满了不确定性。这意味着我们每个人都是未来的守护者。让这个世界安然度过未来的疯狂时期,让我们迎来美好而不是可怕的未来,这个责任落在了我们每个人身上。
帮忙的方式有很多。你可以开发一些能让社会更稳定或让人们更聪明的产品。你可以帮助人们了解正在发生的事情。你也可以清理我们的街道,这样这个许诺带来乌托邦的城市就不会看起来像个反乌托邦。
几乎每个和我聊天的人都担心在 AI 时代失去人生意义,你可能也有这种担忧。对此我想说,情况恰恰相反。你正生活在人类历史上最重要的时期,而且你有能力影响这个时期的走向。拯救世界还不够有意义吗?你真的想回到那个只有个人职业在进步而世界没有进步的时代吗?
也许人们需要从个人成功获得意义转变为从集体成功获得意义。我们现在的很多工作很快就会被自动化。我们必须适应。如果你的意义来自某项特定技能,那么是的,这项技能在五年后可能就不再必要了,你就倒霉了。但如果你能从帮助世界变得更好中获得意义,这种意义永远不会消失。
对于因为 o3 而收到各种建议的应届生们,这是我的建议:学会成为一个主动解决问题的人和一个优秀的团队合作者。你在这个过程中学到的具体技能并不重要,因为世界变化得太快了。但主动跳出来解决问题和与团队良好合作的能力会在很长一段时间内都很重要。
你可能还得接受一个不稳定的人生,因为我们生活在一个不稳定的世界里。情况会变得很奇怪。你可能不会过上养两个孩子加一条狗的郊区生活。你可能会有两个半机械人孩子和一个 AI 宠物狗,生活在星际方舟上。
我们正生活在 AGI 的前夜。在这个圣诞前夜,我想说:希望你能帮助 AGI 的转型顺利进行,这样在 3024 年的圣诞前夜,我就能在环绕 Altman 星的行星上和你打招呼了。
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有