智东西
编译 | 程茜 陈骏达
编辑 | Panken
智东西9月14日报道,近日,美国著名女脱口秀主持人奥普拉·温弗瑞(Oprah Winfrey)录制了一档45分钟的AI特别节目,主题为“AI与我们的未来”。嘉宾包括OpenAI联合创始人兼CEO萨姆·阿尔特曼(Sam Altman)、微软联合创始人比尔·盖茨(Bill Gates)、YouTube知名科技博主马库斯·布朗利(Marques Brownlee,又称MKBHD)和现任FBI局长克里斯托弗·雷伊(Christopher Wray)等人。
这档节目也是OpenAI发布传说中“草莓”模型的部分预览版——OpenAI o1预览版后,阿尔特曼首次公开露面。OpenAI o1拥有进化的推理能力,在物理、生物、化学问题的基准测试中准确度甚至超过了人类博士水平。这些无一不引发人们对AI安全的担忧。
在对话中,作为目前这家最受瞩目的AI创企的CEO,阿尔特曼强调了对AI系统进行安全测试的重要性,并透露他每隔几天就会和政府官员就此碰面讨论。
但同时,阿尔特曼也分享了AI能通过数据来学习并理解概念以及“AI将帮助我们解决一切问题”等极具争议性的观点,并在奥普拉提及他面对的信任危机时转移话题。
盖茨则强调,10年内AI会极大地改变教育和医疗领域。然而,他并未提及这些改变可能并非全都是正面的。有研究显示,AI在医疗中的应用可能给诊断和治疗效果带来负面影响。
其它嘉宾则关注了深度伪造造成的危害和“超级智能带来的全新风险”。
这档节目在发布前后引起轩然大波,许多网友和批评家质疑该节目在嘉宾选择上过于单一,阿尔特曼与盖茨都是从本场AI热潮中直接受益的利益相关方,他们对AI的观点可能有所偏颇。此外,部分嘉宾在节目中过度强调AI的远期危害,可能导致公众忽视AI目前已经对环境、社会造成的现实影响。
一、阿尔特曼再度开启“推销员”模式,称AI能解决“一切问题”
阿尔特曼是接受奥普拉采访的第一位嘉宾,他提出了一个颇具争议的观点:当今的AI是通过训练数据来学习概念的。
在向节目观众解释AI的原理时,阿尔特曼说道:“我们向系统展示一千个单词的序列,并要求它预测接下来的内容,反复重复这一过程,系统就能学会预测,进而学会背后的概念,这就是模型的底层逻辑。”
许多专家并不同意这一说法。最近,OpenAI发布了传说中“草莓”模型的部分预览版——OpenAI o1预览版。此类系统和之前的GPT系列模型确实可以高效、准确地完成下一词预测的任务,但许多研究者认为这种模型只是统计机器——它们只是学习数据模式,没有意图,只是做出有根据的猜测。
阿尔特曼称,AI对经济发展的影响程度之大是前所未有的,称到2035年,“AI能帮助我们解决一切问题”。假设我们能让模型变得极为安全,但也无法改变AI融入经济的速度,他认为:“人们想要更多、更好(的AI),似乎有某股强大的力量在推动其发展”。
不过,高盛和红杉在近期都曾指出AI领域存在投资和收益不匹配的问题。
二、阿尔特曼强调AI监管,避而不谈信任危机
阿尔特曼可能夸大了当今AI的能力,他也同时强调了对这些系统进行安全测试的重要性:“我们需要做的第一件事就是要让政府开始研究如何对这些系统进行安全测试,类似于飞机和药物那样的测试。”
但他的重点可能是后半句话:“如果我们现在能研究清楚这些问题,就能在之后发展出适合的监管框架。”换言之,他可能并不希望在当下就出现完整的监管体系。
在过去的几年中,阿尔特曼常常以支持AI监管的形象示人,在本次采访中,他说到:“我个人可能每隔几天就会和政府里的某个人交谈一次。”
不过,在面临欧洲和美国加州地方政府的实际监管政策时,阿尔特曼却选择反对。OpenAI的强力竞争对手Anthropic一开始虽然反对加州AI安全法案的初稿,但积极参与了修订工作,OpenAI并未提出具体修改意见。
奥普拉还质问阿尔特曼,他作为OpenAI的“头目”(ringleader),之前曾被董事会以不信任为由开除,人们为什么要继续相信他?阿尔特曼回避了这个问题,他只提到其公司正在努力逐渐建立信任。
阿尔特曼曾在多个场合提到,人们不应该相信他或者任何一个人能确保AI造福世界。不过,他不同意有些人称他为“世界上最有权势和最危险的人”,他称自己有机会和责任推动AI朝着对人类有利的方向发展。
三、深度伪造技术风险激增,青少年成侵害对象
在节目中,奥普拉和MKBHD谈论了深度伪造的话题。
为了证明合成内容的可信度,MKBHD将OpenAI的视频生成模型Sora的样本片段与几个月前AI系统生成的片段进行了比较。Sora的视频效果遥遥领先,这表明该领域的进步非常迅速。MKBHD还现场利用语音合成器生成了一段自己绕口令的音频。
奥普拉对这项技术感到担忧,但MKBHD认为就像之前的种种技术那样,在开始阶段总是会存在混乱,但人类最终总是能解决问题。
来自美国人道技术中心的崔斯坦·哈里斯(Tristan Harris)和阿扎·拉斯金(Aza Raskin)在节目中强调了“超级智能带来的全新风险”。然而,过去已有AI界人士批评,过分强调遥远的“超级智能”,可能会导致社会忽视近期的AI风险,如AI的环境影响。
美国FBI现任局长雷伊谈到AI诈骗日益盛行的情况。美国网络安全公司ESET的数据显示,2022年至2023年间,性勒索案件增加了178%,部分原因是AI技术。
雷伊说:“有人冒充同龄人瞄准青少年群体,然后使用(AI生成的)的图片说服孩子发送真实照片作为回报。一旦他们拿到这些照片,就将其用来威胁孩子们。”雷伊还谈到了美国总统大选的虚假信息。他认为“现在还不是恐慌的时候”,但强调了每个人都有责任加强对AI使用的关注和谨慎。
四、盖茨看好AI教育、医疗应用,但偏见与滥用频发
奥普拉还采访了微软联合创始人比尔·盖茨(Bill Gates),他认为10年内AI会极大地改变教育和医疗领域。
盖茨说:“AI就像是坐在就诊现场的第三人,记录诊断结果,并提出处方建议。医生不需要再面对电脑屏幕,而是可以与患者互动,让软件确保诊断结果得到完整记录。”
然而,由于医疗、医药领域的样本通常为白人男性,用这些数据来训练AI可能造成偏见。2023年发布在学术期刊《自然》子刊上的一项研究表明,AI系统在某些情况下降低了手术的效果,特别是在涉及少数族裔的手术中。
在教育领域,盖茨认为AI可以在课堂上“随时待命”并且给任何水平的孩子提供激励,但实际上许多教室里的情况并非如此。
英国安全互联网中心的调查显示,超过一半的孩子称曾看到同龄人以不当方式使用生成式AI,如创建看起来可信的虚假信息或冒犯性的图像。
联合国教科文组织(UNESCO)去年底曾敦促各国政府规范生成式AI在教育领域的使用,包括对用户实施年龄限制以及对数据保护和用户隐私设置限制。
五、节目安排引发轩然大波,网友质疑奥普拉“拉偏架”
其实,在这档特别节目发布之前,就有不少网友和批评家对其嘉宾安排和内容提出质疑。
部分网友认为,在AI界阿尔特曼等人显然算不上最权威的专家。OpenAI前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)可能更了解AI,而OpenAI的强力竞争对手Anthropic的创始人达里奥·阿莫蒂(Dario Amodei)也应该被邀请,以体现对AI不同的看法。
起诉Stability AI和Runway AI等公司、并让Runway AI于不久前“删库跑路”的艺术家卡拉·奥尔蒂斯(Karla Ortiz)认为,这档节目应该找一些“真正的专家”来参与讨论。
她还进一步分析道,这档节目或许将会是许多人第一次获得与生成式AI相关的信息,然而参与这档节目的人大多是既得利益者,他们忽视了生成式AI对大众造成的现实影响。她的系列帖子获得了大量阅读和点赞。
前《洛杉矶时报》科技专栏作家布莱恩·莫钦特(Brian Merchant)在X平台上将这场节目称之为生成式AI行业困局中的一次“销售宣传”。
结语:批评声浪减退但影响持续,或成部分观众“AI第一课”
这档节目在发布后继续在社交媒体平台上引发讨论,反对的声浪并未如播出前般巨大。有部分网友认为,这档节目其实是在面向“祖父母辈”群体介绍AI,并不是十分深刻。但也有网友认为这正是非技术人员所需要的内容。
相对较少的讨论并不意味着这档节目的影响力有限。奥普拉的观众群体庞大,但可能并不是社交媒体的用户,他们十分愿意相信奥普拉和她的节目中其他嘉宾的观点。
通观这档45分钟的节目,奥普拉似乎将重点放在了AI安全问题上,却又没有进行深入且实际的探讨,并呈现来自不同方面的观点。不论这些观点是否正确,偏颇与否,似乎已经成为了部分观众的AI第一课。
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有