OpenAI传闻中的新Q*模型,在多大程度上是一场炒作?

OpenAI传闻中的新Q*模型,在多大程度上是一场炒作?
2023年11月28日 18:26 麻省理工科技评论

自从上周 OpenAI 发生一系列戏剧性事件以来,关于该公司首席科学官伊利亚·苏斯克弗(Ilya Sutskever)及其董事会决定罢免首席执行官山姆·奥特曼(Sam Altman)的原因,我们听到了许多不同版本的传言。

(来源:ERIC RISBERG/ASSOCIATED PRESS)

虽然我们仍然不清楚所有的细节,但有报道称,OpenAI 的研究人员在人工智能进展方面取得了“突破”,足以让其员工大为震惊。

有多家媒体都报道称,OpenAI 的研究人员想出了一种制造强大人工智能系统的新方法,并创建了一个名为 Q*(发音为 Qstar)的新模型。据称,该模型能够执行小学级的数学运算。

据接受媒体采访的人士透露,OpenAI 的一些人认为,这可能是该公司寻求打造通用人工智能(AGI)路上的一个里程碑。所谓的通用人工智能,指的是比人类更智能的人工智能系统。该公司拒绝就 Q*发表评论。

社交媒体上充斥着猜测和过度炒作,所以我联系了一些专家,想知道在数学和人工智能方面的任何突破究竟有多大意义。

多年来,研究人员一直试图让人工智能模型来解决数学问题。像 ChatGPT(GPT-3.5)和 GPT-4 这样的语言模型可以完成一些数学运算,但表现不是很好,也不可靠。

英国爱丁堡大学人工智能讲师 Wenda Li 表示,我们目前没有能够使用人工智能可靠地解决数学问题的算法,甚至没有合适的架构。

Li 补充道,深度学习和语言模型所使用的 transformer(一种神经网络)在识别模式方面非常出色,但仅凭这一点可能还不够。

Li 说,数学是推理的基准。一台能够对数学进行推理的机器,理论上可以学会在现有信息的基础上完成其他任务,例如编写计算机代码或从新闻文章中得出结论。

解决数学问题是一个特别艰巨的挑战,因为它需要人工智能模型具备推理能力,并真正理解它们在处理什么。

一个能够可靠地进行数学运算的生成式人工智能系统,需要真正掌握那些可能变得非常抽象的、特定概念的具体定义。

剑桥大学研究数学和人工智能的博士研究员凯蒂·柯林斯(Katie Collins)表示,许多数学问题也需要对多个步骤进行一定程度的规划。

事实上,META 首席人工智能科学家杨立昆(Yann LeCun)上周末在 X 和 LinkedIn 上发帖称,他认为 Q*可能是“OpenAI 的规划尝试”。

(来源:资料图)

人们担心人工智能是否会对人类构成生存风险。这也是 OpenAI 的担忧之一,他们担心这种能力可能会导致“人工智能暴动”。柯林斯说,如果允许这种人工智能系统设定自己的目标,并开始以某种方式与真实的物理或数字世界对接,可能会出现安全问题。

尽管(具备)数学能力可能会让我们离更强大的人工智能系统更近一步,但解决这些数学问题并不意味着超级智能的诞生。

柯林斯说:“我不认为它会立即让我们实现通用人工智能,或者导致其他可怕的情况。”她补充道,考虑人工智能正在解决什么样的数学问题也非常重要。

柯林斯说:“解决小学数学问题,与将数学的边界拓展到菲尔兹奖获得者所能做到的水平,是非常非常不同的。”柯林斯所说的菲尔兹奖是数学界的最高奖项。

机器学习研究的重点是解决小学水平的问题,但最先进的人工智能系统还没有完全解决这一挑战。柯林斯说,一些人工智能模型在非常简单的数学问题上失败了,但他们却可以在非常困难的问题上表现出色。

例如,OpenAI 开发了专用工具,可以解决高中数学尖子生比赛中提出的具有挑战性的数学问题,但这些系统只有在少数情况下才会超过人类。

尽管如此,如果 Q*确实能做到这一点,那么构建一个能够求解数学方程的人工智能系统将是一个很酷的发展。

例如,对数学的更深入理解可以为科学研究和工程提供更多的应用方式。得到数学题答案的能力可以帮助我们发展更好的个性化辅导,或者帮助数学家更快地做代数或解决更复杂的问题。

这也不是第一次有模型掀起了通用人工智能炒作。就在 2022 年,科技界人士对谷歌DeepMind 的 Gato 也有类似的看法,它是一种所谓的“多面手”人工智能模型,可以玩雅达利电子游戏、给图像配字、聊天,并用机械臂堆叠玩具块。

当时,一些人工智能研究人员声称,DeepMind 正处于通用人工智能的“边缘”,因为 Gato 能够很好地完成很多不同的事情。而这次,炒作的状态可能是类似的,只不过来自不同的人工智能实验室。

虽然这可能是一个很好的舆论(公关)宣传,但这些炒作周期会分散人们对人工智能造成的、真实存在的问题的注意力,对整个领域弊大于利。关于强大的新人工智能模型的传言,也可能是试图规避监管的科技行业的一个巨大“利己”目标。

例如,欧盟即将敲定其全面的《人工智能法案》。目前立法者之间最大的争论之一是,是否要赋予科技公司更多的权力,让它们自行监管尖端的人工智能模型。

OpenAI 的董事会被设计为公司的内部终止开关和治理机制,以防止推出有害技术。

过去一周,OpenAI 董事会的戏剧性事件表明,这些公司永远会优先考虑自己的底线。这个案例也让他们更难说服人们,为什么他们应该被信任并进行自我监管。

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。

支持:Ren

运营/排版:何晨龙

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部