图片来源:The Verge
AGI的实际定义变得更加谨慎,通常指的是“人类水平的智能”,而不是超级智能。许多AI专家认为,AGI不会带来科幻小说中描述的那种颠覆性变化,而是更像是一位聪明的大学生,能够完成某些复杂的任务,但远未达到超越人类的水平。
我们把ChatGPT作为一个整体来考虑,你可能会觉得它给出的某个特定问题的错误答案确实令人失望,但这对于大多数ChatGPT的用户来说,其实并不是什么大问题。
过去两年的迹象表明,平均每四周就会出现产品的更新迭代,每个发展阶段都在迅速推进。你的周围充满虎视眈眈的竞争者。这些公司都在拼命告诉你,他们在研发更大、更好的东西,他们准备改变一切。
有人告诉我,初级工程师不应该使用ChatGPT进行编程,但高级工程师可以,因为高级工程师知道哪里出了问题、可以修正ChatGPT给出的不完美的答案。
The Verge是一家成立于2011年的美国科技媒体网站,总部位于纽约曼哈顿。该网站提供新闻、产品评论、播客和视频等内容。本期访谈是两位知名的记者关于AGI和近期AI事件的讨论。
OpenAI 首席执行官萨姆·奥特曼多年来一直在说——多年!——人工通用智能(AGI)将类似于奇点。当我们实现 AGI 时,奥特曼和其他人表示,它将从根本上重塑社会。
在本周纽约市的纽约时报DealBook 峰会上,奥特曼说没关系。他表示,AGI 很快就会到来,但这不会是一个大事件。
01
AGI 的炒作与现实
Nilay Patel: 欢迎来到RichCast,嗨,我是Nilay Patel。
David Pierce: 我是David Pierce。
Nilay Patel: 今天Kylie Robison将加入我们进行讨论。有很多关于AI的事情,所有这些都归结为一个问题:如果它不像我们说的那样好怎么办?
David Pierce: 很多人都在谈论这件事,这是本周我真正注意到的事情。
Nilay Patel: Kylie 会和我们谈谈人工智能到底发生了什么。Kylie,你好。有很多关于你负责报道的 AI 领域的消息。作为高级 AI 记者,这意味着每周都有很多人谈论我们的机器人主宰。本周他们都突然决定 AGI即将来临。这让我感觉就像是大家突然说“这事要发生了”,然后人们可以根据自己的理解来解读。你觉得他们有一个群聊吗?
David Pierce: 我记得在疫情初期,有一些科技公司的 CEO 们在一个 WhatsApp 群里,试图弄清楚该怎么做,如何管理各种事情。我想知道现在是不是也有一个关于 AGI 的群聊?里面是不是有 Sam Altman 在问“我们做到了吗?我们应该现在说出来吗?”
Nilay Patel: 谁在这个群聊里,谁不在,这真是个有趣的问题。也许这就是问题所在。只要让你重新加入,所有的诉讼都会消失。你知道《纽约时报》的订阅产品主要是为了视频游戏,我们是不是可以把订阅改为“谁在 AI 群聊里,谁不在”,就像 MySpace 的前 10 名好友一样?我们每天都可以众包这个问题,然后它会在现实中发生。比如今天,听众决定 Sam 不在群里,他醒来后发现“我不在群里”。
David Pierce: 是的,这主意不错。
Nilay Patel: 这值得每月 7 美元。让我们开始吧。Sam Altman 在 DealBook 会议上宣布了一些东西,我们之前有过独家报道,但他后来宣布了这件事,所以我们只是跟进了。让我们从 OpenAI 的 12 天计划开始吧,他们称之为“Shipmas”(ZP注:“Shipmas”活动是一项为期12天的产品发布季,从2024年12月5日开始,旨在展示新功能、新产品和演示)David,你怎么看?
David Pierce: 我不喜欢这个名字,我不明白“Shipmas”是什么意思。
Nilay Patel: 好吧,有个人会来到你的家里,表面上是来给你们一些东西,实际上他会吃光你所有的饼干,然后我们庆祝他。无论如何,这就是“Shipmas”计划的一部分,它将包括 Sora 视频生成器、一个新推理模型,还有今天 Kylie 提到的,他们宣布的第一个“Shipmas”项目是一个每月 200 美元的 OpenAI 计划。这里到底发生了什么?
Kylie Robison: 是的,你说我们有独家报道。我在前一天打了十几个电话,人们都说“Shipmas”,不,是“发布某物”。他们刚刚发布了一个每月 200 美元的新特殊 o1 模型。我提前得到了这个消息,但时间不多,所以我还在消化。我的第一反应是:这听起来像一个笑话,给我们 200 美元,你就能得到一些特别的东西,只管信任我们吧。对,这是一个特殊的 o1 模型,据说它在编程和激进研究方面更好。是这样的吗?
Nilay Patel: 你知道,某款手表是用钻石做的,5000 美元,但它似乎并不重要,因为有些人就是想花 5000 美元买一块 Apple Watch。这到底是怎么回事?它是真的更强大,还是我们只是不知道?
Kylie Robison: 他们发布了内部测试结果。我对内部测试总是持怀疑态度,无论这是否公平。我的自然反应是:我希望看到更多的测试和证据,当然我也想自己试一试,看看感觉如何。我还想听听使用它进行编程的工程师们的意见,比如“我确实感觉到不同了”。所以在看到这些指标之前,我自己也不确定,但他们说确实更好。
作为旧金山的 AI 记者,我想象着 Hayes Valley 的那些人,他们会说:“天哪,我要每月支付 200 美元,这太酷了。” 它就像那块钻石 Apple Watch,只是为了拥有它。我最近采访了 ChatGPT 的负责人 Nick Turley,他告诉我有些人有多个付费账户,因为他们觉得这很有趣。
David Pierce: 这里面有一种 FOMO(Fear of missing out)和虚假军备竞赛的感觉,我认为这只是其中的一部分。每个人都在这里谈论他们买了多少 NVIDIA 芯片,仿佛这是衡量你创业公司有多酷的标志。现在我们会进入一个阶段:来我们的创业公司工作,我们将为你提供每月 200 美元的 ChatGPT Pro,而不是去那个只提供 Plus 版本的其他创业公司。顺便说一句,OpenAI 之前不是说过要改进品牌命名吗?结果呢?
我很快忘记了这一点。但无论如何,我认为这有可能会变得有意义。但我感觉 OpenAI 就像是在利用人们对任何微小优势的渴望,有很多有钱人愿意为此买单。让我们看看会发生什么。这个词是什么,当你试图弄清楚人们愿意为某物支付多少钱时?
Kylie Robison: 价格弹性。是的,AI 世界现在正在进行价格弹性测试。《纽约时报》曾报道说,他们希望获得数十亿美元的收入,现在我们看到他们的计划是什么。
Nilay Patel: 他们就像 Carl Lagerfeld 会买这个模型,永远不会设置它,只是把它戴在身上作为一种地位象征,过一段时间再换掉。这非常有趣。我想从这里开始,他们在接下来的 10 到 12 天内会发布一系列新产品。第一个是这个极其昂贵的模型,我们必须看看它表现如何。在这个背景下,很多人说模型的能力不再像去年那样迅速提升。
自从ChatGPT发布以来已经两年了,他们推出了 3.5 和 4.0 版本,现在是 o1。这些名字都很糟糕,而且它们似乎已经达到了瓶颈。有一份报告说 Gemini 也遇到了瓶颈,新的 Gemini 实际上不如旧的 Gemini 好。有一种感觉是,最初的大幅进步带来了大量炒作,但能力的提升并不是线性的。OpenAI 似乎在试图打破这种瓶颈,说这个新模型非常好,值得 10 倍的价格。我无法完全理解这两者之间的关系。
Kylie Robison: 我认为这就是我对 Heath 在 DealBook 上关于 AGI 的报道的理解:AGI 实际上不会那么重要。我觉得他们制造了过多的炒作,现在必须面对这个问题。很多 AI 领导者都在说,我们已经习惯了这些技术,公司跟不上炒作的步伐,而过去的进展是由扩展定律带来的,未来也会如此,但这还有待观察。我认为他们确实遇到了瓶颈,这就是为什么我们看到的是渐进式的发展,而不是立即推出 GPT-5。显然,它还没有准备好。
Nilay Patel: 我想读一下 Sam Altman 在 DealBook 会议上的一句话。他和 Andrew Sorkin 在台上,他说:“我的猜测是我们会在比大多数人认为的更早实现AGI,但它的重要性将远小于人们的预期。” 这是一个令人难以置信的声明,因为他之前说过:“我们将在现有硬件上实现 AGI。” 这是一个惊人的主张,如果这是真的,我们应该停止所有其他工作,专注于实现这一点。但他又说:“但它会很糟糕。” 所以,你们要创造一个愚蠢的人工智能吗?这就是你要说的是吗?
Kylie Robison: 他们说的是人类水平的智能,而不是超级智能。他们经常提到“人类水平的智能”,比如说像聪明的大学生。我觉得他们在这方面制造了太多的炒作,这就是为什么当我看到 DealBook 的那句话时,我觉得他们在调整期望。他们说下一个东西是 AGI,但大家却说:“这真的是 AGI 吗?” 感觉他在说:“其实它不会那么重要。”
Nilay Patel: 实际上,它并不会那么重要。更大的背景是,有报道称 OpenAI 可以自行决定实现 AGI 后退出与微软的协议。这与他们之前的结构有关,当时是非营利董事会,董事会的任务是决定是否安全实现 AGI 或解雇 Sam Altman。他们做了前者,而不是后者,解散了整个董事会,现在他们将转型为营利性公司。因此,微软在他们的协议中有一个奇怪的条款:如果 Sam Altman 决定实现了 AGI,他可以离开与微软的协议。这真是一个奇怪的激励机制。
顺便说一下,我会在周一的 Decoders 节目中与 Mustafa Suleyman(ZP注:DeepMind 的联合创始人之一,现在是 Microsoft AI 的 CEO)讨论这个问题。我问他:“我们能在现有硬件上实现 AGI 吗?” 他并不认同。
David Pierce: 嗯,但他有点含糊其辞,说:“也许有一天会实现。” 这是一次很好的 Decoders 对话,他是个有趣的谈话对象,我们互相喜欢,也喜欢挑战对方。虽然他不同意 Sam 的观点,但他也在重新定义 AGI 的标准。我问他:“如果我们正在构建奇点,难道不应该停下来专注于这个吗?” 他说:“AGI 不是奇点。” 这与我们过去经历的炒作不符,对吧?炒作是说我们必须停止这一切,因为在我们没有准备好之前实现 AGI 会毁了世界。还记得 Elon Musk 的说法吗?这就是为什么很多人都离开OpenAI,成立了名为“Safer Superintelligence”的公司。Ilya Sutskever 在今年 6 月的 OpenAI 宪章中描述了 AGI,Sam Altman 也参与了这个宪章并同意。他认为 AGI 是一个可以自动化绝大多数智力劳动的计算机系统。他称之为一个有用的定义。我们不能让 Sam Altman 逃避责任。他花了十年时间让 AGI 成为了一个热门话题,我们现在使用的“AGI”这个词就是他推广的。
Nilay Patel: 完全正确。他还故意提到 OpenAI 和微软的关系,引用了 Alex Heath 的话。Keith 对此非常兴奋,因为 Alex 当时在现场发了一条即时消息,Sam 说:“我不认为我们正在与微软脱钩。” 我也问了他同样的问题,他说:“我们会看看情况如何发展。” 他重复了三次,直到我说:“你已经说了三次‘我们会看看情况如何发展’。” 他才说:“哦,没关系。”
David Pierce: 这就像 Chris Martin 和 Gwyneth Paltrow 说的“我们没有分手,我们是有意识地解耦。” 是的,这就是微软。
Kylie Robison: 我可以戴上我的阴谋论帽子。今天我一直在关注 OpenAI 的新闻,他们显然有一个巨大的发布会和直播。我在 Twitter 上设置了所有 CEO 的通知,所以我会收到他们的动态。Satya 纳德拉转发了许多微软今天的公告,而 Tom Warren 也爆料了一些内容,但 Sam 没有转发任何东西。这感觉像是一个接班人风格的动作,就像是在说:“这是我最喜欢的男孩。” 这个时机真的很奇怪,Satya 似乎在忽略整个聊天机器人的话题。
Nilay Patel: 所以,一个月内,你可以把 Sam 从一个好的局面中踢出去。这些事情都不是偶然的。
David Pierce: 这确实是一个阴谋论,但当你像 Satya Nadella 这样的人,不会随便做决定。除了 Elon Musk 之外,大多数科技 CEO 都是有目的的行动。
02
200条AI生成内容就有153条有错
Nilay Patel: 这是一个非常好的点。我们现在来铺垫一下背景:OpenAI 将在接下来的 12 天内宣布一系列新项目,包括一个他们认为如此优秀的模型,值得每年 200 美元。Sam Altman 正在将 AGI 的目标重新定义为明天的事情。
他说:“我可以在 NVIDIA 4060 上用 20 美元做到这一点。给我一台 Xbox 和足够的汽油,我就能给你一个通用人工智能。” 这就是他的心态。然而,现实是目前的产品远未达到那个水平。哥伦比亚大学数字新闻研究中心本周发布了一份报告,要求 Chachapiti 识别来自 20 家出版物的 200 条引言的来源,结果它根本做不到。它通过胡编乱造完成了这项任务,在 153 次回答中部分或完全错误,只有 7 次承认自己无法准确回答。
David Pierce: 它被问了 200 个问题,答错了 153 个。
Nilay Patel: 是的,而且它只承认自己可能错 7 次。
David Pierce: 不是承认自己错了,而是承认有可能可能会错 7 次。
Nilay Patel: 在文化层面,人们在使用这些工具时几乎没有思考。Liz Lopato 写了一篇文章,她似乎在五分钟内就完成了,因为她当时并没有在写这个故事。文章非常好。她提到Woodrow Wilson总统赦免了他的姐夫Hunter deButts,这种说法显然是网络谣言——当看到Hunter deButts这个名字时,我就明白这是典型的网络谣言。Reddit上有个帖子,详细描述了Hunter deButts的背景故事,好像这个人、这件事真的发生过似的,这些网络内容甚至为Hunter deButts增添了一层传奇色彩。但是在进行网络检索的时候,机器人会对这些内容感到困惑。后来Liz对这个谣言进行了深入调查,她试图追溯这一说法的来源。结果发现,网上的信息完全无法解答“哪些总统赦免过家庭成员”这一问题——而作为记者,她把这场闹剧甩锅给ChatGPT。
我们正在快速用这些所谓的“答案引擎”取代传统的搜索引擎,而这恰好是谷歌一直以来的目标——想让我们把它视为答案提供者,就像Google Ads那样。作为搜索引擎,Google过去会提供上百个链接,告诉用户:“这是信息来源,你可以自行阅读并决定是否信任它们。”然而,现在它直接给用户一个答案,并附上几个脚注链接。问题是,几乎没有人会点击这些链接。他们只会简单地转发像Hunter deButts这样的词组,在没有上下文或验证的情况下传播错误信息。
此外,我最近采访了ChatGPT的负责人,并在写一个关于他们起步历程的故事。他们一开始就说:“没人会喜欢这个产品,因为它的错误率太高,而且过于自信。” 他们觉得不应该发布这个产品,因为用户会讨厌它,它经常自己凭空捏造信息。但最终,他们还是决定发布预览版本,以观察人们会如何使用它。结果,人们非常喜欢它。两年后,尽管它仍然充满自信地给出错误答案,但却赚取了数十亿美元的收入;虽然OpenAI还未实现盈利,但这一切似乎已经不重要了。问题是,它仍然频繁地产生“幻觉”,但人们依然喜爱它。这一点确实让人费解。
Nilay Patel: 如果你还记得一年前,大家都在说会解决AGI捏造事实的问题。他们声称已经控制住了这一问题、知道该如何去做。但实际上,他们完全没有控制住。现在“Hunter deButts”这种似是而非的词汇大量出现在互联网上。如果他们稍微有些理智,就应该在宣布这个东西是AGI之前按下暂停键。而我认为,这其实是所有这些工具的核心问题:这项技术真的能够实现他们所声称的功能吗?目前来看,它显然做不到。甚至连分辨什么是真实、什么是虚假、什么是纯粹的“幻觉”都无法做到。
AGI加速到来,但却无人关心
David Pierce: 是的,这也是为什么AGI应用到信息检索领域特别有趣的一个原因。我们把ChatGPT作为一个整体来考虑,你可能会觉得它给出的某个特定问题的错误答案确实令人失望,但这对于大多数人ChatGPT的用户来说,其实并不是什么大问题——我不完全认同这种说法,你也可以对此持有不同的观点,但这的确是目前比较流行的一个想法,很多AI相关的讨论也常常出现这种说法:人们在测试时发现,用户并不太担心这些虚假信息的问题。
这同任务的性质有关。当涉及到搜索时,任务的本质就是要找到互联网上相关且真实的信息。因此,用ChatGPT写代码和用ChatGPT搜索信息,这是两个完全不同的情况。写代码是一个真实的场景,尽管ChatGPT会犯错误,但这些错误是可以忍受的,它能高效地写出代码,这对很多职业编程人员来说是不错的选择;但如果任务是准确检索信息,情况就变得不尽相同了;这种情况下如果ChatGPT犯错,而背后的开发公司却冠冕堂皇地声称“它已经为你解答了问题”,这就不可接受了——因为你已经将产品建立在“它能够完成这项工作”这个基础假设之上,但显然,它完成不了这一使命。
Kylie Robison: 有人告诉我,初级工程师不应该使用ChatGPT进行编程,但高级工程师可以,因为高级工程师知道哪里出了问题、可以修正ChatGPT给出的不完美的答案。高级记者也是类似,作为一名记者,我需要做的只是快速找到信息,而Google在这方面做得很差。所以,我对ChatGPT的态度也比较模糊,我知道我必须点开它给出的链接,考证它的信息来源是什么、它的可靠性如何。
在一次采访中,GPT的负责人说:用户一开始就知道,他们必须检查这些信息;他们知道如何写出提示词,因此他们也对此感到非常满意——这样来看,使用 GPT 的人都很清楚如何使用ChatGPT、该在什么时候信任ChatGPT。但尽管如此,我依旧认为ChatGPT这种行径是不负责任的:我们作为高级从业者当然知道正确的信息是什么样子,但90%的时间里ChatGPT并没能给出正确答案——这是不可以被用户接受的。
David Pierce: 抛掉所有哲学意义上的风险斗争不谈,ChatGPT只是一个糟糕的产品。这一方面它和Google很像:你去Google检索信息,但是它只是给了你一堆毫不相干的链接。
Nilay Patel: 我想针对你说的“糟糕产品”给出一个例子——这个例子就发生在本周。斯坦福大学的某位研究员,也是斯坦福大学社交媒体实验室的创始人,他的专长是研究虚假信息,因支持明尼苏达州一项反深度伪造法案而陷入麻烦。明尼苏达的这项法案规定,在政治竞选期间,不能伪造政客的言论。尽管有很多法案强调相关内容,但近年来他们也不断被一些保守派质疑和挑战。在法院上,这位研究员为这项法案写了一份声明支持书,结果发现,他使用ChatGPT来帮助整理引用文献,而ChatGPT捏造出了一些毫不存在的引用。
最荒唐的是,他自己明明知道这一点,但他却自信地写下了声明:“我已经编写并审核了这份声明的实质内容,坚定地支持其中所做的每一项主张,这些主张得到了该领域最新学术研究的支持,并反映了我作为一名专家对人工智能技术、虚假信息及其对社会影响的看法。” 接着,他还表示,他使用了Google Scholar和ChatGPT来“识别可能与声明相关的文章”,以便将已有研究与新学术成果结合起来——问题是,这些所谓的新学术成果完全是编造的。
David Pierce: 不过,开个玩笑,我太太正在读研,她花了大量的时间来做整理引用文献格式这样的事情,但她的论文依旧被扣分了,因为她把页码和出处的顺序放错了。所以她有一年半的时间一直都在怒斥论文引用格式。所以我想,如果人工智能只想帮我引用一些东西,我甚至都不用担心引用带来的麻烦事了,它不必是真的,因为没人会检查它们的真实性,也没人关心它们的真实性。
03
AGI本质是大公司之间的竞争
Nilay Patel: 在纽约时报的DealBook的访谈中,Google的Sundar Pichai提到,他对Microsoft的大模型和Google自己的模型做了横向比较,他发现他们几乎一直在“借鉴”其他人的模型。他的言外之意是Microsoft自己研发的模型非常糟糕,所以他们不得不借鉴OpenAI的模型。这也意味着,如果Sam Altman认为OpenAI的模型是AGI,那么更加有竞争力的Google模型也是AGI。
Kylie Robison: 这让我想到Elon Mask说的一句话。有人问Elon你们会率先实现AGI吗?Elon说:“不一定,我们或许会步调一致,同时实现AGI。”
David Pierce: 过去两年的迹象表明,平均每四周就会出现产品的更新迭代,每个发展阶段都在迅速推进。比如OpenAI做了某些事,接着Anthropic做出一个更好的成果,比之前的基准高出10%;然后Meta也推出了更好的成果,比之前的基准又高出10%;紧接着Google更新了WhatsApp、Gemini,然后这一切又开始循环。
你会发现,前后左右都有十好几个人虎视眈眈。我认为这是一场竞争激烈且迅速商品化的过程。这些公司都在拼命告诉你,他们在研发更大、更好的东西,他们准备改变一切,会比其他公司更快地将其产品化、市场化。我认为对于Google来说,他们的策略就是“我们能更快地开发这些产品,其他公司赶不上我们”。
就像Sundar出来说:“我们的模型很棒,我们今年会推出更多产品,预计会有更大突破。”但他们的态度就是:“无所谓,我们是Google,我们已经将它集成到Gmail和Google Drive中了,Sam,你有什么?”
Kylie Robison: 完全同意,像亚马逊这样的企业也有自己的模型。有报道指出OpenAI正在努力将ChatGPT打造成一个可定制的企业产品供人们使用,他们在这种竞争中确实占有优势。但在这种炒作周期中,我唯一学到的一件事就是:不要相信他们说的任何东西。他们会告诉你:“我们不会提高价格”,“我们接近AGI了”,或者类似的说法。我只相信已经发布并且可以直接使用的内容,至少,眼前可以用到的才是最值得信任的。
David Pierce: 如果Sam Altman希望让自己看起来更酷,他或许应该公布说:我们两年前就实现AGI了,ChatGPT就是AGI,谁能够阻止我们?
Nilay Patel: 人们相信ChatGPT就是AGI。我真的觉得,这些研发者和设计者很大程度上依赖于那些喜欢“能言善辩”的人——如果你的语言表达流畅又自信,在美国确实能走得很远。悲哀的是,人们就在这些花言巧语中接受了OpenAI。比如,我的侄女甚至直接把它叫做Chat,在感恩节期间,她不停地说:“让我问问Chat。”我却心想,它明明是在骗你,她却对此不以为然,“无所谓啊,差不多就行了。”
这很可怕,但同时也反映了人们对这个产品的关系模式。在某种程度上这些产品设计师正是利用了这种模棱两可的关系进行交易,某些时候不会产生负面后果,但是这不意味着这些负面后果不会发生——可能又有研究人员在文献引用上出问题,或者某位律师因为使用虚假的引用被曝光。等到足够多人因为这些问题陷入困境时,市场上那些愿意出钱投资的公司就会停下脚步,直到这些产品能保证可靠性、准确性,或者至少是有效性。我们目前创造的只是一些看似下一代接口的自然语言工具,但实际上并没有真正创造出可用的产品。
David Pierce: 没错,正如你提到的,云端服务供应商之间的大战即将一触即发。这周亚马逊推出了新模型,成为人工智能工具的云端服务供应商将会是斗争的核心利益点,而竞争者名单我们也很熟悉:Google对阵Amazon,对阵Microsoft,某种程度上也在对阵OpenAI——OpenAI和微软之间的商业关系很复杂,但这就是战场。这些斗争暗流涌动,虽然不似其他领域那么吸引眼球,但我们不得不承认,人工智能的业务核心就是这些公司之间的竞争。
Kylie Robison:完全同意。作为一名关注云服务和企业技术的新闻从业者,我很熟悉这类竞争重现,一切最终都会回到SaaS模式,这就是竞争的焦点,所有的资金都会涌入这里。如果这些公司想赚取数十亿美元并训练他们的百亿美元模型,他们就需要大额企业合同来支撑这一切。
Nilay Patel: 我可以在这里做个总结。第一,我们应该回头看看所有的AI生成内容的引用链接,找到那些“幻觉”并验证其真实性了。第二,无论我们如何定义AGI,假如你创造的东西只是看起来像一个聪明的大学生,但40%的时间都在编造东西,200次中有153次说谎,你会放心让ta处理重要的任务吗?这显然存在着脱节。尽管这些工具带来了很多乐趣,但它们与真正的知识之间有本质的差距。我们拭目以待吧。你觉得接下来的趋势是什么?OpenAI会不会在明年完全转向营利模式?
Kylie Robison:是的,这很可能就是主要方向。我一直在脑海中思考国防合同的问题。如果这些人工智能工具一直错误百出,而它们又开始与像Anduril (美国国防技术公司) 这样的公司签署合作协议,那真的令人担忧。风险会越来越高,而我不确定这些模型是否已经准备好应对这些高风险场景。这确实令人焦虑。如果它们想把这些代理工具引入大型企业,进一步涉足国防领域,然后建立更多数据中心,那到了2025年,风险只会进一步提升,而这些公司会继续赚钱。正如你提到的,我们可能会看到一些严重的后果。当然,目前来看,我们已经看到了一些负面后果,但AI的从业者似乎并没有因此停止了他们手里的工作。
原播客:AGI is coming and nobody cares | The Vergecast
https://www.theverge.com/2024/12/6/24314746/agi-openai-sam-altman-cable-subscription-vergecast
编译:Spring Liu & Elena Chen
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有