善与恶交织在一起,塑造了人工智能|专访马克·尼兹伯格

善与恶交织在一起,塑造了人工智能|专访马克·尼兹伯格
2022年07月27日 10:15 新京报书评周刊

前不久,比利·马库斯(狗狗币联合创始人)问马斯克,“如果你能够将大脑上传到云端,并与虚拟的自己交谈,你们会成为朋友吗?”马斯克的回复是“已经这么做了(Already did it)”。忽然之间,“云上之脑”这个概念引发了热议。

那么,将“大脑上传至云端”意味着什么?

答案可能是“数字永生”。

电影《机械姬》(Ex Machina 2014)剧照。

这些年,人工智能技术的发展及其应用,并未取得多少令人称赞的成就。不过这似乎并没有阻挡“局中人”的欲望,他们不止希望能够与人工智能共生,还希望着能借助这一技术,实现意识的永生不灭。围绕马斯克的回复,更多人随之产生了一个疑问,“数字永生”已经成为现实了吗?这可能只是一个为其诸如“脑机”等业务背书的“谣言”,因为要实现“数字永生”,还面临着思维复制、全脑仿真等一系列障碍。

而在技术层面之外,我们还需要搞清楚更多的问题:如何认识决定不使用人工智能的人?如何有效遏制数据集的腐败和数据集中对个人和群体的潜在歧视?如果人工智能能够解决粮食危机或者应对气候变化灾难,你会因此改变饮食习惯或度假计划吗?如果电脑或机器人接手了你的工作,但你并不需要烦恼收入来源,你会拼命努力保住工作或者寻找一份新的工作吗?

当然也包括,如果一个人将“大脑上传至云端”,我们应该将其视为原本的人类一份子,还是应该将其纳入另一个阵营?

在回答上述问题之前,我们还需要思考这样一个老生常谈的基本问题,简而言之,这些新的、前所未有的人工智能技术对人究竟意味着什么?本文是对新书《所罗门的密码:AI时代的价值、权力与信任》作者马克·尼兹伯格(Mark Nitzberg)的专访,他与合著者奥拉夫·格罗思(Olaf Groth)都致力于数字未来研究,并抱有一定的信心。我们希望从尼兹伯格那里得到一些不同的回答。他希望向读者呈现人工智能技术的有益性,认为可以为技术的发展交出某种程度的“控制权”。他最担心的则是社交媒体疯狂的算法推送,重塑了网络生态,以及人们的情绪和注意力。

采写丨何安安

“势如破竹”的机器计算

当下的我们已经无可避免地进入了与机器共存的时代。在生活的各个领域,机器正在我们无意识的情况下替我们做出更多的决定。曾经令读者或者观众目瞪口呆的科幻小说、电影,正在成为我们日常生活的一部分。这种渐进式的改变,甚至让我们对此并没有太多的察觉。

自1955年,约翰·麦卡锡发明“人工智能”一词以来,与之相关的研究已经经历了六十多年。人工智能跨越了地理界限和社会阶层,所有不同类型的人工智能技术都有一个共同的目标:获取数据、处理数据、从数据中学习。

先进的学习算法被大量运用于决定我们行为的基本活动中,数字团已经侵入了我们生活的每一个角落,从零售业到金融业,从咨询专家到约会相亲,从健康服务到共享汽车,没有哪个领域可以丝毫不受影响——任何可以置入微芯片的东西都可能成为新的数据来源。百度和谷歌可以为我们难以定义的搜索需求提供更精确的搜索结果,腾讯和脸书可以帮助我们找到并重新联系上一位久未谋面的朋友,淘宝和亚马逊可以为我们推荐送给伴侣的最合适的礼物。

正如奥拉夫·格罗思(OlafGroth),和马克·尼兹伯格(Mark Nitzberg)两位作者在《所罗门的密码:AI时代的价值、权力与信任》一书中所说的那样:“每个人都能够从它身上得到好处,它使得我们的生活更加简单方便,互联互通。随着我们越来越多地使用这些公司的服务,它们获得了更多关于我们生活细节的信息,以确保自己的平台能够满足我们的需求……”

《所罗门的密码:AI时代的价值、权力与信任》,[德]奥拉夫·格罗思、 [美]马克·尼兹伯格 著,董丹丹 译,中信出版集团,2022年5月。

马克·尼兹伯格希望从伦理学的角度,探讨人类与人工智能共生、协作的关系。对于前述问题,尼兹伯格认为其中有一些问题迫在眉睫:比如保持安全、保住工作、保证我们对自己的生活方向有发言权。

但在另一方面,尼兹伯格也认为,我们必须避免落入陷阱,将人类和机器等同起来,把两者作为竞争对手——机器智能和人类智能协同互补比两者过度竞争要强得多,“具有神经网络能力的认知机器可以帮助我们成为更有效的传感器和更快的处理器,我们可以建立更多的联系做出更好的决策……创造一种共生的智能伙伴关系,它有可能将我们和世界带到新的高度。”

在记者对尼兹伯格的访谈中,他表示,“当人工智能成为每一项人类活动的一部分时,我们需要在世界这一背景下进行反思:我们必须认识到算法的背后隐含着道德和伦理准则,我们需要积极研发的不仅仅是技术,还有与之相关的如何使用它们的社会准则,以便它们可以与我们的繁荣美好的未来共生。”目前,尼兹伯格的工作重点已从技术层面转向了政策层面,希望藉此证明人工智能的有益性。

马克·尼兹伯格(Mark Nitzberg),加州大学伯克利分校人类兼容人工智能中心(CHAI)执行主任。《所罗门的密码:AI时代的价值、权力与信任》一书合著者。

——对话马克·尼兹伯格——

在数据里,

善与恶交织在一起

新京报:人工智能技术的非凡能力为我们的时代带来了光明一面的同时,也带来了许许多多无法避免的问题。那么,人工智能技术到底意味着什么?是什么促使你想要和奥拉夫·格罗思一同完成《所罗门的密码》这本书?

马克·尼兹伯格(以下简称尼兹伯格)2016年,媒体对日益强大的人工智能技术的机遇和风险进行了铺天盖地的报道:自动驾驶汽车、卡车和自主无人机时代即将到来。许多知名科学家和企业家认为,通用人工智能的出现是人类历史上最为伟大的事件,但这也有可能摧毁人类。

奥拉夫和我一起编写了《所罗门的密码》,以调查世界各地的人工智能景观,向公众介绍人工智能的最新故事。在与科学家、企业家、立法者、投资者以及经济学、法学、哲学和宗教领域的学者交谈的过程中,我们得出了一个中心结论:人工智能是人性的放大器,善与恶交织在一起,强大人工智能的出现并不是发生在我们身体上的事情。我们可以通过选择:谁来部署它、出于什么目的、在什么样的技术和法律范围内部署它和控制它。

《所罗门的密码》这个标题所希望传达的就是这样的概念,它指的是历史上以领导力、智慧与谋略而闻名的所罗门王。当人工智能成为每一项人类活动的一部分时,我们需要在世界这一背景下进行反思:我们必须认识到算法的背后隐含着道德和伦理准则,我们需要积极研发的不仅仅是技术,还有与之相关的如何使用它们的社会准则,以便它们可以与我们的繁荣美好的未来共生。

《我,机器人》(I, Robot 2004)剧照。

新京报:在你看来,人类与机器共存的时代是否已经到来?如何界定人类与机器的边界?

尼兹伯格:正如我们所看到的那样,人类当然已经和机器共存。我们每天都在与软件合作——比如我们在线购买商品,或者通过语音响应系统预订酒店或者预约医生。这些系统并不是人类,但事实上,它们正在变得越来越接近人类。当一个语音助手可以像一个人类的个人助理一样表现出色时,我们应该在哪里划清机器和人类的界限呢?

目前,欧盟和美国出台了一些法律,要求机器识别自己的身份,并告诉用户自己并非人类。这与(仍然是假想状态的)人类级别人工智能助手和真实人类之间的概念差异有关:机器人是人类出于某种人类启发的目的而设计的,这在本质上是一种人类的现象;而一个真正的人类,显然不能说是由人类设计的。

如果我们将这种差异视为基础,那么它将阻止人工智能系统被视为是有感知的,或是在法律或者道德意义上的“人”而出现。尽管如此,即便我认为人工智能机器人应该是高度复杂的机器,它们的设计目的也必须是为了协助,而不仅仅是为了实现特定的内部目标。对用户微妙且不断变化的偏好建模,是创建可信且有效的人工智能系统的核心挑战。

电影《超验骇客》(Transcendence 2014)剧照。影片中,天才科学家威尔·卡斯特致力于开发出最接近人类的人工智能机器人“品(Pin)”。

新京报:一个被机器所主宰的世界,是什么样的呢?

尼兹伯格:一个由机器主导的世界可能会有几种形式,但没有一种是可取的:其中一种正是我们允许人工智能变得越来越强大,并失去对其系统的控制。在这种情况下,人类将成为我们自己的超级智能造物的宠物或奴隶,否则人类将彻底灭绝。

这个假想发人深省——这也是我们人类兼容人工智能中心(CHAI)正在努力避免的命运。

交出了我们的“控制权”

新京报:《所罗门的密码》融入了一个发生在2035年的,有关于阿娃的爱情故事,这个故事畅想了十几年后,人工智能技术渗透到生活方方面面时,我们的生活可能会发生什么样的变化。在所有的描述中,你认为最值得警惕的问题是什么?

尼兹伯格:这个爱情故事中智能助理机器人(Pal)的灵感来自于2017年的语音助手,但在当时,这一概念还是假想中的。

如今,智能助理机器人已经成为可能:语音助手会根据它所观察到的个体习惯及时空相关信息给出建议:比如,假设你约了贾斯敏(Jasmine)在十分钟后见面,而你还有二十分钟的路程,谷歌助手可能会对你说,“看来你要迟到了,我需要发个消息提醒她吗?”

像百度文心(ERNIE)和谷歌T5(2019年由谷歌推出的预训练模型)这样的大型语言模拟系统都精通许许多多的语言任务,使得系统能够以令人信服的个性化的方式与我们交谈。但对我来说,用机器模仿和混淆权威人士并不是最令人担忧的危险。我相信,通过新的法律和公众意识,我们可以很好地处理这种情况。

对我来说,当下最大的危险来自个性化的社交媒体。推特(Twitter)、脸书(Facebook)、微博(Weibo)和字节跳动(Bytedance)都是超级媒体,它们可以用非常快速且廉价的方式改变十亿人的想法。有充分的证据表明,社交媒体自身虽然没有本质上的危害,但可以对社会凝聚力和民主规范造成巨大损害。敌对型用户可以制造政治冲突,摧毁公司或个人的声誉,或者扳倒一个商业或政治对手。

即使是善意型用户使用也会出错:脸书试图根据观察到的用户口味定制内容,而这导致了美国社会冲突加剧——基于用户兴趣构建的人工智能算法往往会放大走向极端的主题。我的一位大学时期的朋友,过去是一个不折不扣的和平主义者,自从他被卷入一个社交媒体群后,就变得偏执,这促使他购买了一把枪,选择离开城市,过着与世隔绝的生活。

我们需要监管算法来减少社交媒体的危害,制定某些目标,并要求社交媒体公司对在线内容造成的线下伤害负责,以及提供技术解决方案,例如,在推荐算法的反馈机制中增加幸福感测量。最新一项研究表明,这些措施对改善用户福祉是有效的。当然,问题仍然存在:包括(社交媒体)应该在多大程度上受到监管,以及在多大程度上可以由个人用户自行决定?

新京报:人工智能系统已经应用在我们日常生活的许多方面,面对人工智能的迅猛发展,有很多问题似乎是作为个体的我们难以抵挡的。我们可以在多大程度上信任人工智能?我们应该,或者说不得不交出生活的控制权吗?

尼兹伯格:我相信,信任的问题同样适用于人工智能系统,就好像适用于任何工程系统一样。我们信任桥梁,是因为我们知道有相应的标准和法规可以确保建筑商的资质和信誉,而由政府和受到认可的第三方机构进行的审计和检查,以及定期且持续的评估和检查,确保结果可以在很长一段时间里持续令人满意。

电影《少数派报告》(Minority Report 2002)剧照。

人工智能系统和其他工程系统之间的本质区别在于个人与社会的交互广度。自动驾驶汽车正在接受数十亿公里的驾驶行为测试,以了解司机过往可能遇到的各种状况,但它们依然不能够在所有驾驶情况下都进行测试。在大多数情况下,这些系统被认为是辅助的,而不是完全自主的。如果自动驾驶汽车可以安全靠边停车,我们可以松开方向盘。

但这就触及了第二个问题核心:我们应该交出控制权吗?

我认为答案是肯定的——如果经过权衡这是值得的,或者说有利于公共安全的。假设有一种新型的无人机出租车(drone taxis)可以使用——我不指望法律会允许我可以驾驶飞机飞行,除非我接受了专门的训练并获取了飞行执照——法律可以合理地要求我把控制权交给人工智能自动驾驶仪。

但社交媒体推荐系统的情况要复杂得多。苹果的新闻应用程序和字节跳动的应用程序一样,决定了我每次浏览新闻时首先看到什么文章,接下来看到什么文章。我已经把注意力的控制权交给了数以百万计的新闻爱好者。源源不断的新闻文章的吸引力是不可抗拒的,如果推荐文章的算法是为了吸引我的注意力,那么它必然会导致一种上瘾行为。

从某种程度上来说,这正是移交控制权所带来的负面影响。在新闻聚合器的情况下,出现了更高级别的对用户进行控制的替代方案:例如,使得用户在“写作风格”倾向上,从“微妙”滑向“挑衅”;或是在“确立立场”时,从“赞成”滑向“批评”。

回到我们对人工智能的看法,即辅助性或者自主性:丰田将智能驾驶定位为“驾驶员辅助”系统,逐步帮助驾驶员实现越来越多的功能,直到盲人驾驶成为可能。特斯拉正在拥抱自动驾驶模式,他们的目标是积极地实现这一模式,以至于他们将这一驾驶辅助功能命名为“自动驾驶”,而不是“全自动驾驶”——以防万一。显然,被视为辅助系统的自动驾驶更容易被测试,也更容易得到信任。

隐私永远是最大的问题之一

新京报:你们在书中提到,应该抓住推动人工智能进步的“三个C”——认知(cognition)、意识(consciousness)和良知(conscience),它们为人工智能的发展提供了重要的里程碑。对此,你有一些基于当下的思考,或者说关于它们的答案吗?

尼兹伯格:认知是基于“思考”这一任务的,需要考虑许多因素,评估许多选项,这是人工智能算法的核心权限。

如果你询问几乎任何一位人工智能研究人员,他们都不会声称他们的目标是建立意识或良知。在我们结束这本书时,我总结说:我们所说的意识是一场伟大而有价值的辩论,在这场辩论中我将采取的立场是,这是一个社会选择的问题。

如果我们选择将一个足够强大的人工智能系统视为是有意识的,那么它们是否有义务遵循我们的规范并赋予它们“人格”?如果它们是“人”,也即公司或个人所有的“人”,那么我们是引入奴隶制了吗?我很确信,人工智能系统——由公司创建和操作的复杂计算机程序——在可预见的未来不会被视为法定的“人”。

电影《机械姬》(Ex Machina 2014)剧照。

最后,良知是一种更高层次的人类因素,不仅假定人工智能拥有独立人格,而且假定它具有社会群体中的成员身份。在这种情况下,人工智能在道德层面上有责任和义务分享公共资源、财富和不幸。

事实上,许多国家出现的人工智能法规都对人工智能系统施加了道德标准。我可以这样总结:人工智能系统都在努力捕捉认知;意识问题是一场激烈的辩论,但我希望法律不会很快赋予人工智能系统以人格;良知是当前人工智能的前沿领域之一,无论是在限制大型语言模型行为的技术意义上,还是在世界各地应用于人工智能系统的日益增长的法律和伦理结构中。

新京报:我们甚至可能没有察觉到,人工智能在各个领域影响着我们的一举一动,智能手机、电脑、汽车、冰箱,甚至是牙刷、马桶等,都在无时无刻收集着我们的各种数据(当然也包括隐私数据),一些人会为此感到恐惧——这可能是一种无时无刻都被监视或者控制的恐惧,对此,你有一些建议吗?当下的我们应该如何捍卫自己的隐私?

尼兹伯格:解决隐私问题的一个办法是通过法律对隐私进行保护,这因国家和地区而异。例如,在欧洲,隐私法被称为GDPR(General Data Protection Regulation),也就是《通用数据保护条例》。举一个小例子,《通用数据保护条例》中规定了“删除权(被遗忘权) ”,允许个人请求从科技公司的服务器上删除他或者她的所有行为数据。类似的法律可以给予公民一种控制感和隐私保护感。

当然,尽管有法律规定,我们的隐私也很容易受到威胁。比如智能手机确实一直伴随着我们,其功能使其不可或缺,但也侵蚀了我们的隐私感:GPS位置传感器、快速互联网连接、摄像头、麦克风。还有监控摄像机和其他无处不在的互联计算设备使得大型供应商和运营商能够从我们所有人这里捕获各种行为数据,并可能与执法部门和其他政府机构合作,捕获和存储数据以供分析。

不过,可以收集所有这些数据并不意味着他们确实收集了这些数据。归根结底,这取决于我们是否信任政府机构和科技公司不会违反隐私法。

新京报:你提到,构建一个共生智能的环境,需要人们有能力辨别不同智能中的好坏,这样我们才可以整合各方形成更好的伙伴关系。这需要人们对人工智能的潜力怀有高度信任,并愿意接受用这些人工智能增强人类的能力。我们应该如何理解这种共生智能环境?又如何建立这种信任关系?

尼兹伯格:这正是人工智能时代所面临的巨大挑战之一。数据驱动的系统是不透明的,很难证明其行为的具体情况。我们正在研究下一代系统——数据驱动和符号系统,可以使用正式系统的一些机制。然后,我们就可以建立安全和效益标准——“良好”智能。

今天的我们已经生活在与大型软件系统的共生关系之中——只要试着在没有手机的情况下在城市里走一天!

我们需要通过它来旅行、预订餐馆、协调团体、付款、确定音乐会安排,我们生活在各种移动设备和智能系统当中。我相信有一种建立信任的模式:应用商店——在允许发布之前对软件应用程序进行评估。也许目前还没有达到它们应该达到的效果——但它们可以作为一个安全的数字生态系统模型,每个模块都有认证。

因此,通过安全的生态系统认证和分发的,被证明是有益的人工智能模块,有助于在人类和人工智能系统之间建立更加深入的共生关系。

技术需要被规训

新京报:越来越多的人正在躲在数字身份的背后。一些网络环境中充斥着人肉搜索、网络恐吓和仇恨,人工智能的发展是否放大和加剧了这种不受控制的冲动表述的出现?如果人工智能将这种状态也视为人类的真实面貌,是否会带来不可预测的危险?

尼兹伯格:由数据驱动人工智能系统的社会危害确实很多。但我的观点是,就像所有的技术一样,人工智能是人性的放大器——放大人的善与恶。很难发明出一种只能用于善的技术,一种能够感知何时被用于有害的技术,只能简单地关闭它们。

与核能发电、药物和基因工程一样,人工智能的滥用或因此造成意外伤害的风险与它对世界的影响一样大。研究人员可以发现技术或数据本身中的一些关键故障。过去的数据记录了过去的决策,包括那些不公正的决策。

当工程目标偏离当前情况时,一组有固定目标的编码会变得危险。对于每一种偶然性,我们不可能事先知道所有人的偏好;此外,一个有固定目标的智能系统会很自然地得出结论,不能关闭它,因为那样会妨碍它实现目标。

这一领域的研究有时被称为定位问题,即人类想要什么,以及如何设计系统来实现我们所希望的未来。这是一个挑战,仅仅将偏好简单地写在一个长长的列表并提前将其放入人工智能系统并不足以应对。

新京报:《所罗门的密码》首次出版于2018年,在过去的四年当中,你是否产生了一些新的思考?自2020年起肆虐全球的新冠肺炎疫情,在人工智能领域带来了一些以往不曾被人们所关注到的问题吗?

尼兹伯格:之前的问题涵盖了我们已经解决的大多数常见问题。通过进一步研究百度、谷歌、微软和美国开放人工智能研究中心(OpenAI)的大型语言模型,人们对实现通用人工智能的可能性提出了新的问题。

《所罗门的密码》英文版封面。

他们正在将文本语料库(有时也包括图像)输入到称为Transformer(一种机器学习模型)架构的深度神经网络的新变体中。结果令人惊讶,因为这些系统能够内化书面语言的可能性:语音、常见用法,甚至更令人印象深刻的口语表达,在某些情况下,还出现了一种不可思议的“常识”。因为它们接受的是文字训练,没有任何在世界上的“基础经验”,它们无法达到幼儿或家养宠物所表现出的那种常识。虽然它们可能会使用表达因果关系的词语,但它们并没有幼儿那种从物理和因果关系中获得一种基础认知,例如把杯子推倒,水就会溢出来。

我的许多同事,包括伯克利大学的斯图尔特·罗素(Stuart Russell)、现在北京大学和清华大学工作的朱松春,以及麻省理工学院的约书亚·特南鲍姆(JoshuaTenenbaum),都确信仅靠深度网络无法实现普遍的人工智能。

新冠肺炎疫情加速了人工智能支持系统的应用,也因此加速了我们在编写《所罗门的密码》时所预见的一些积极和消极结果。大多数人熟悉的一个典型例子是使用视频会议和社交网络来创建、加入和参与社会团体,以便提供不需要立即面对面接触的服务。

即使我们被封闭在家里,我们也有机会接触很多没有见过面的朋友和亲戚,因为拜访远方的亲朋好友和拜访邻居一样简单——都是通过视频。社交网络算法会推荐远方的朋友,也会建议我们加入新的社交群体,这改善了与世隔绝的人们的生活。同样,在线联机的健康咨询,能够更快、更频繁地监测患有某些疾病的患者以及脆弱的老年人。尽管亲自护理已经被恢复,但远程医疗咨询的便捷性和经济性依然对卫生部门产生了持久的积极影响。

在一个孤立无援的环境中,许多人被网络招募加入到志同道合的团体之中,而这在线下世界之中是无法做到的。如果这些团体是健康的,有共同的真正的兴趣或爱好,这就是积极的效果;但在许多情况下,招募是为了政治目的,比如煽动冲突,在某些情况下的身体暴力等。人工智能支持下的招募如同人工智能推荐的广告一样精准有效,它对社会的危害远远大于站在街头询问路人是否对某项事业感兴趣的传统方式。在线招募就如同天罗地网,它可以根据个人资料选择特定人群推送一百万条量身定制的消息。相比之下,街头招募就如同一根钓鱼竿。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部