别看ChatGPT现在炒得火热,人工智能有进入新的寒冬的风险

别看ChatGPT现在炒得火热,人工智能有进入新的寒冬的风险
2023年03月06日 23:00 36氪

编者按:ChatGPT 等 AI 技术在大众间掀起的热度让大家高呼人工智能机会来了,甚至 OpenAI 已经喊出要向通用人工智能(AGI)进军了。但是,以史为鉴,这个时候出来泼泼冷水是好的。毕竟 AI 之前已经历过两次凛冬。或者,不说那么远的,你们还记得专家预测全自动驾驶的实现时间吗?文章来自编译。

两度入冬

冬天来了吗?

当然,我说的是“AI 的冬天”。

这是 AI 历史的一部分,我们对人工智能的起起落落已经见惯不怪。当 AI 热起来的时候,计算机科学家与公司似乎发明出来了令人兴奋且功能强大的新技术。科技公司用它们来开发有望让每个人的生活变得更轻松(或更高效)的产品,投资者则毫不犹豫地掏出腰包。每个人——包括满怀幻想的记者——都开始过度承诺,滔滔不绝地谈论起将要发明出来的人工智能。简直跟人一样!像上帝一样!无所不知,无所不能!

但是,这种程度的炒作是难以为继的——而且到了一定时候,这个行业就会开始出现说到做不到的情况。事实证明,人工智能总会出人意料地被失败缠身。尝试用它来解决日常问题的公司和个人会发现,AI 很容易出错,而且通常是非常普通的错误。

然后就进入了“人工智能冬天”。客户不再为 AI 产品付大钱;投资者捂紧了自己的钱包。记者对行业局面的评判变得更加挑剔。由于人人都感觉焦头烂额(或颇为尴尬),情况滑入到一个过度消极的循环:哪怕是计算机科学家和发明家找到了真正有趣的 AI 实现的新路径,也很难筹到资金去支撑自己的研究。这个冬天会很漫长。

到目前为止,AI 已经经历过两次漫长的冬天。下面这张图可以说明情况……

AI 寒冬图示,1950 年代、60 年代及 70 年代,对 AI 的兴趣在攀升,到了 70 年代中期信心崩塌, 到 1980 年代开始恢复并一路攀升到 90 年代,然后再次崩溃,接着到 2000 年代再次回升。摘自《The winter, the summer, and the summer dream of artificial intelligence in law》,作者:Enrico Francesconi

人工智能始于 1956 年,当时在达特茅斯(Dartmouth)一个研讨会上,在场的 AI 名人预测,“学习的每个方面或智能的任何其他特征,原则上可被精确地描述,以至于能够建造一台机器来模拟它”。随后展开了将近 20 年的工作,一路上他们许下了令人眼花缭乱的承诺:当《纽约时报》首次报道美国海军正在研究的神经网络时,记者的报道是这样的口吻:“美国海军期望这种萌芽中的电子计算机能走、能说、会看、会写、可复制自己,并意识到自己的存在”。在这个 AI 早期的上升期间,企业与计算机科学家对文本自动翻译的想法特别着迷——如果能够让这件事情做成的话,这个想法将价值数十亿美元。

但他们没有把事情做成。到了 1970 年代初期,那些早期的原型 AI 技术显然连原先承诺的一丁点儿目标也没法兑现。机器翻译其实就是一堆笨拙的手写的规则,哪怕是中等复杂度的语法也应付不了。能自学的机器?依旧只是科幻小说。AI 寒冬来了,投资者开始出逃,研究资金陷入枯竭。

后来直到八十年代,春天才又回来。彼时,大多数科技公司已经放弃了要创造“自学”机器这种不切实际的梦想,他们开始建立“专家系统”。专家系统的目标离雄心勃勃还差得远:大多只是拜占庭式拼凑出来的 if-then 迷宫,试图针对一个(且只有一个)特定问题自动进行决策。Visa 宣称要建立一个自动审核信用卡申请的系统;一家航空公司说要建一架会自动寻找路由的飞机。

专家系统倒是有个优势,那就是确实有效。但是专家系统的建造成本非常高,而且每个系统都是一次性的。更糟糕的是,当专家系统遇到无法预料的极端情况时,就会发生灾难性的失败。我曾听说过一个信用卡申请系统错误地将信用卡发给了一个九岁的孩子,因为那份申请表(显然充满了谎言)列出自己具备二十年的工作经验。程序员忘记制定规则来验证“工作经验”长于“客户年龄”是不合理的了。这就是手工制定规则的问题:现实世界太复杂了,专家系统没法面面俱到。随着“专家系统”的失败日益凸显,又一个人工智能的冬天到来了。

正值盛夏

但现在,我们正处在第三次大繁荣之中——我们正处在“人工智能的盛夏”。

这个夏天始于 2010 年代,那时候“深度学习”刚刚开始兴起。神经网络这个东西出现已有几十年了,但在 1990 年代以及 2000 年代初期,深度学习被认为不切实际:缺乏足够的数据来训练这些网络,训练的计算强度太大。正如深度学习先驱 Geoff Hinton 去年告诉我那样:“1990 年代那时候,大家都嘲笑我们,说这些东西永远也行不通”。

但在他以及世界各地的几位同事的努力下,2000 年代的情况开始有所改善。训练数据量出现了爆发式的增长(因为大家在网上没完没了地发照片,没完没了地写东西)。数据的处理变得既便宜又快速。再加上来自 Hinton 以及其他的先驱构思出一些巧妙的神经网络,深度学习到 2010 年代已经变得非常擅长模式识别。你可以用大量图片来训练神经网络,然后它就可以成为识别东西的魔术师。用翻译好的句子对来训练它,它终于可以了 ——可以学习翻译语言了!

基于大量写作语料库来训练它呢?你好,GPT-3 — 一个可以巧妙地预测句子的下一个可能的单词的机器人,它可以像人类一样写文章、回答问题,给文档写摘要。基于大量艺术来训练神经网络呢?于是就有了 Midjourney。用计算机代码来训练它,你就得到了 Copilot。

于是,大量资金又开始涌入 AI,初创企业推出了大量具备文本生成、代码填充或图片生成功能的产品。我刚刚去看了一下 Product Hunt,里面到处都是这样的软件;这是其中的三个……

Product Hunt 的三款产品截图——“Read Easy.ai”、“ Travelmoji ”以及“ Copilotly ”

再度转冷?

但是:AI 还会进入新的冬天吗?

我开始怀疑了,因为其中的部分历史模式似乎正在重复。

首先,我们看到大型聊天应用已经出现了一些明显的混乱。谷歌最近(为了拼命赶上 OpenAi)而匆忙展示其人工智能聊天机器人时,那个机器人犯了巨大的事实错误——股票市场迅速做出反应,令谷歌的市值暴跌了 7.8%,缩水了 1000 亿美元。然后微软趁热打铁推出了新的 Bing 产品,内置了 ChatGPT 功能——它不仅犯下了无数的事实错误(包括一些奇怪的错误,比如坚持认为现在其实仍然是 2022 年),而且在面对自己的错误时变得超级怪异,充满挑衅性。对于包括我自己在内的很多人来说,大规模语言模型会犯下大量的事实错误并不奇怪;单词预测这项技术确实很强大,但部分计算机科学家与认知科学家怀疑,这只是人类真正的推理机制其中的一小部分。

除了这些语言模型的失败以外,自动驾驶汽车的麻烦也越来越大。美国国家公路交通安全管理局(National Highway Traffic Safety Administration)宣布,要召回配备了“完全自动驾驶测试版”的特斯拉,这款软件宣传可实现自动驾驶。美国政府表示,特斯拉的软件“由于未充分遵守交通安全法,从而对机动车安全构成了过度的风险”——也就是说,它容易做出不可预测的疯狂且危险的举动。

也就是说,我们遭遇了AI 寒冬初期的“未按承诺兑现”的部分。

我们也有过“过度承诺”。想想自动驾驶汽车吧,十年来发明家们一直坚称自动驾驶随时就会实现(一位计算机科学家在 2017 年的时候告诉我,“这是一个价值万亿美元的产业”),记者们(包括我自己在内)则兴高采烈地思考其潜在影响。与此同时,大型语言模型的先驱们坚持认为,如果他们继续扩大模型的规模,并为其提供更多数据,这些模型就会变成真正的推理机。(OpenAI 的一位创始人甚至认为 GPT-3 已经“初具意识”。)

这种空头支票开过头的承诺与机器连现在是哪一年都不知道的现实发生了很大的冲突(你纠正它时它还很生气)。这几乎荒谬到有点好笑。社会担心我们会遇到无所不知灭绝人性的天网——但实际上我们得到的不过是乐于助人的废话艺术家而已,它们甚至都懒得直截了当地说出鸡毛蒜皮的事实。

百转千回

但我不会下结论。事实上,我不知道人工智能冬天会不会再度降临。

毕竟,即便今天的聊天机器人被证明是泡沫,被视为一种行业技术的深度学习仍然非常有价值,就算其适用范围比较狭窄也很有价值。它非常适合用来做自动识别器(autorecognizer)和分类器(categorizer)。仅此一项就价值数十亿美元。即便 OpenAI 永远无法让 ChatGPT 可靠地教中学数学,它仍将价值数十亿美元。因此,人工智能行业会彻底萎缩的想法似乎不太可能。

但可能会出现重大修正。会有足够多的人也许认为大型语言模型玩起来很有趣(“给我写一首莎士比亚十四行诗;赞美一下地平理论!”),但在帮助经营企业方面则是很不可靠的,甚至到了危险的地步。或者,大量出于 SEO 优化目的而生成的垃圾文字可能会像真菌一样塞满整个互联网,从而给整个 AI 在公众当中带来糟糕的口碑。这可能会耗尽大量的资本和投资。在这一点上自动驾驶汽车再次可以充满警示案例:尽管投资者已向该领域投入数百亿美元,但全自动驾驶的汽车几乎还没有上路,而且自动驾驶行业最近 IPO 的初创公司在两年间已蒸发了 81% 的市值。(同样值得注意的是,目前诉讼针对的是艺术生成 AI 以及代码生成 AI 的核心过程,其主张认为这些 AI 的开发者无权出于训练的目的收集大量在线艺术与代码。)

可是,就算再经历一次严重的低谷也未必意味着 AI 的终结。毕竟这个领域已经复兴过两次了。它还会再度复兴的。如果事实证明大型语言模型(正如它们目前所设计的那样)注定会出错,是不合理的,那么优秀的计算机科学家最终会把注意力放在其他技术上。就像 Gary Marcus 等深度学习专家所建言的那样,其中可能包括针对抽象的符号主义。或者,正如 Geoff Hinton 最近推测的那样,也许是专门针对手头任务为个别神经网络定制的专用硬件。

对于 AI,永远不要说“绝不”。历史的车轮会滚滚向前。但是,如果冬天来了,路上堆满了积雪,那唯一的出路也许就是换条路走。

译者:boxi。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部