重大突发!“奥特曼”出局!“小怪兽”何去何从?(下)

重大突发!“奥特曼”出局!“小怪兽”何去何从?(下)
2023年11月27日 14:03 华略智库

作者:华略智库 北京公司

来源:上海华略智库(ID:HUALUETT)

接上篇《重大突发!“奥特曼”出局!“小怪兽”何去何从?(上)》所说,OpenAI创始人山姆·奥特曼遭董事会解雇之后,事情迎来了新的反转。奥特曼与董事会谈判破裂,本欲携团队加入微软,时隔两日,OpenAI又突然官宣奥特曼回归。这场史诗级夺权大戏背后实则是人工智能发展与安全两种流派之间的交锋,人工智能未来是否会成为人类自噬的“怪兽”?一起来看!

全文3517字,阅读约9分钟

从OpenAI高层人事地震,谈人工智能发展与安全博弈

全世界最有影响力的人工智能公司OpenAI,在经历11月17日高层人士地震之后的72个小时内可谓余震不断。首先,18日以来,OpenAI员工围绕着奥特曼个人社交媒体开展了“高强度团建”,数百名员工集体出面力挺前老板,更有多名高管集体发出了“没有员工的OpenAI什么都不是”的声音。

随后,接近500名员工(约占公司总人数70%)签署“威胁信”,要求董事会辞职,否则就跟随奥特曼集体离职。19日,奥特曼以访客的身份再次造访OpenAI总部,在投资者和许多员工敦促他重新夺回控制权的情况下,奥特曼将董事会带到了谈判桌前,并提出了若干项复职的拟议条款。

从后续发展来看,OpenAI现任董事会并没有接受奥特曼的提议,在其随后的官方声明中表示:“奥特曼不会重回OpenAI担任CEO职务,新任CEO为Twitch的联合创始人埃米特·谢尔(Emmett Shear)”。20日,微软公司CEO、董事长萨提亚·纳德拉(Satya Nadella)发文表示:“奥特曼与布罗克曼及他们的同事们,将加入微软,领导新的先进人工智能研究团队”。

正当所有人以为事情终于尘埃落定时,22日OpenAI在其官方社交媒体上突然宣布:“奥特曼将回归OpenAI担任CEO”。晚些时候奥特曼在其个人社交媒体上发文称:“我喜欢OpenAI,过去几天我所做的一切都是为了让这个团队及其使命保持一致。当我决定在周日晚上加入微软时,很明显这对我和团队来说是最好的道路。在新董事会和纳德拉的支持下,我期待着重返OpenAI,并巩固我们与微软的牢固合作伙伴关系”。

在OpenAI的“危机100小时”内,事态反复横跳如过山车一般,让“吃瓜群众”大呼过瘾。最终以伊尔亚等三位原董事会成员出局、奥特曼回归OpenAI担任CEO暂时落幕。奥特曼看似获得了胜利,但实际上他本次回归也被排除在董事会之外,相当于事件两方当事人双双出局,都是“伤敌100,自损99”的状态。戏剧终要落幕,尘埃看似落定,但围绕本次事件的讨论仍在发酵,关于人工智能安全领域的讨论被提升到前所未有的高热度。

相对于日新月异的人工智能技术,人工智能安全可谓是老生常谈。早在1984年,好莱坞经典科幻电影《终结者》——这部被世界著名电影杂志《电影周刊》评选为“20世纪最值得收藏电影排名”第一的电影,其故事设定的背景就是未来失序的人工智能——天网(Skynet),其智商远超人类,逻辑与思维极其缜密,但最终却与人类利益相悖,做出摧毁世界的决定,这可能是大部分人对“超人工智能”的第一印象。

后来的《黑客帝国》《我,机器人》都在对人工智能威胁人类的未来想象,引发人们深刻的思考。如今,发展与安全两种流派之间的矛盾和冲突,在OpenAI的高层人事变动中得到了生动的体现。奥特曼代表的“发展优先派”和伊尔亚代表的“安全至上派”在人工智能发展方向上存在着根本性的分歧,而这一次的事件则引发了对于人工智能安全问题更为深刻的讨论。

“发展优先派”认为现在的人工智能技术远没有达到需要考虑安全规范的程度。技术的快速发展是不可阻挡的,而人工智能发展速度远超出人们的传统想象,在此阶段取得技术领先地位是战略性关键,这将使其在全球竞争中占据有利地位。而对于一个公司来说,跟上并领先于其他公司在技术上的竞争,将带来战略性的优势。此外,他们认为通过技术的不断发展,可以在技术带来负面影响之前及时解决问题。

“安全至上派”更强调人工智能的伦理和价值观的重要性。他们认为,过于迅速的技术发展可能导致伦理和社会问题,如隐私侵犯、歧视性算法等。在追求技术发展的同时,必须优先考虑人工智能技术的伦理和价值观,以确保其对社会的积极影响。他们注重人工智能的长期健康发展,认为在现阶段进行安全防控是为了防止未来可能出现的风险和威胁。通过提前考虑并解决潜在问题,可以避免引发公众的担忧和恐慌,从而防止社会的抵制,确保人工智能的长期可持续发展。

对比以上两派核心观点,看似发展派更为务实,是一群实干家。相较之下,安全派则更像杞人忧天的空想派,他们在谈论人工智能安全问题的时候都是发散性、开放式的讨论,并没有实质上的证据来支撑。

事实上,以伊尔亚为代表的“安全派”长期以来一直致力于人工智能安全领域的研究,引发本次高层人事地震的核心问题正是因为他领导的“超级对齐技术”(Superalignment)所带来的双方不可调和的路线冲突。

超级对齐技术是OpenAI公司于今年7月份首次提出的概念,并宣布将投入20%的计算资源,花费4年的时间全力打造一个超级对齐系统。该系统的核心思想可以称之为“用魔法打败魔法”——利用人工智能技术监控人工智能技术,判断其决策价值观是否与人类保持一致,避免其做出违背人类价值观的举动,从而产生不可控的后果。

超级对齐即价值观对齐,其核心目标在于确保人工智能的目标和行为方式与人类的价值观和伦理标准保持一致。如果类似于“天网”这样的人工智能具有与人类完全不同的目标,那么它很可能会采取极端的、对人类不利的行动。

举例来说,一个旨在“最大限度增加人类幸福感”的人工智能系统可能会强制给所有人吃快乐激素并抹去悲伤记忆。另一方面,一个“最大限度保护人类安全”的人工智能可能会为了避免人类无意中伤害自己而限制全部人类的人身自由。这显然与人类的普世价值不符。因此,一个安全可控的人工智能必须能够体现人类共同的伦理价值观,只有这样才能符合人类对于人工智能的期望。

实现人工智能价值观超级对齐,是人工智能一个重要的研究方向,必然面临人类价值判断的模糊性、编码人类价值观的难度、实际应用环境的复杂性等许多挑战。比如,给一个健康的人注射吗啡,无疑是一种犯罪,但给一个生命垂危、饱受病痛折磨的病人注射吗啡,则是一种仁心仁术的关爱。那么,健康如何定义?病痛的边界又是什么?价值观是否属于“智能”的范畴?是否可以进行量化、模型化和数字化?在“对齐”过程中是否会产生新的价值观问题和风险?

抛开这些发散性领域不谈,就单从“发展优先派”“安全至上派”两大流派之争,而前段时间发生的“韩国机器人杀人事件”似乎在提醒着每一个人,人工智能的安全问题离我们并不遥远。

尽管如此,笔者仍更倾向于支持“发展优先派”,未来人工智能应更加注重“发展优先”,任其“自由生长”甚至“野蛮发展”理由如下:

发展的问题应交给发展来解决。人类对于未知的恐惧往往大于恐惧本身,当面对一个全新事物的出现,人类往往会出于本能的自我限制、自我禁锢甚至下意识对抗,以致主动放缓甚至停下探索的步伐。然而,人类社会的各项进步,从某种意义上来说无一不是突破这种“安全边界”所取得的。

如果畏惧火的无情,我们现在还在茹毛饮血;如果畏惧水的汹涌,我们现在还认为天圆地方;如果畏惧电的力量,我们现在还身处黑暗之中。这一点,特别建议“安全至上派”学习中国人的智慧:“摸着石头过河”“用发展的眼光看问题”“发展中的问题要靠发展来解决”。

从技术发展本身客观规律来看,许多潜在的安全问题是可以在技术发展的同时后续解决。随着技术的发展,人工智能通过自我演进和自我优化,将变得更加智能和自适应,可以更好地适应、解决和应对各种技术、伦理、法律等方面的复杂问题。而在问题确实出现之前,不应过于担心可能性,而是在问题显现时采取迅速的纠正措施。

安全的问题也需要发展来解决。本次事件的黄金配角之一,OpenAI CEO“一日游”的埃米特·谢尔曾经表示:“我们如果不进行实验,就无法构建一个安全的人工智能,但如果不取得发展,就无法进行实验”。这在某种层面也反映出人工智能发展与安全博弈的底层逻辑。

“安全至上派”的主流观点认为:如果过于依赖技术自身解决问题,可能会忽视社会、伦理和法律方面的重要考虑。因此,在人工智能的发展过程中,通常也需要适当的监管、道德指导和社会参与,以确保技术的利用符合社会期望和价值观。但他们恰恰忽略的一点是,安全的领域是在不断拓展的,安全的范畴是不断变化的,而这一切无一不需要相应的安全技术的发展作为支撑,包括现在的超级对齐技术,究其本质仍是人工智能技术。

重视安全不是带来禁锢,真正的人工智能安全不是给戴上紧箍咒,而是具备防护更高等级、更大范围、更深层次安全的能力和水平,只有你具备比坏人更坏的能力,才有能力让好人更好,这就是所谓的“魔高一尺,道高一丈”。

本次奥特曼回归的背后,明显是资本在发挥作用,资本逐利的天性使其必然倾向于发展优先。在资本的撮合下,“发展优先派”“安全至上派”得到了一次暂时性的平衡。人工智能的发展未来到底会走向哪一条道路?放出“小怪兽”的会不会就是“奥特曼”?让我们拭目以待。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部