【编者按】在人工智能快速发展的 2024 年,我们正目睹着一场悄无声息的数字灾难:世界最大的搜索引擎正在主动选择自我摧毁。在追逐人工智能创新的浪潮中,谷歌选择用一个充满争议的决定来赌上自己的核心竞争力:将生成式 AI 整合进搜索结果。这个决定不仅关乎一家科技公司的未来,更直接影响着全球数十亿用户获取信息的方式。
科技评论家 Ed Zitron 在其最新一期 Better Offline 播客中,通过深入分析和专家访谈,揭示了这场危机背后的决策逻辑、技术缺陷和更深层的行业困境。这不仅仅是一个关于搜索质量的故事,更是一个关于科技行业如何在利润驱动下逐渐背离其服务用户初衷的警示。
原文标题:AI Is Breaking Google. (https://www.youtube.com/watch?v=dUJxMZpfoKg)
作者 | Ed Zitron, Better Offline
编译 | Eric Harrington
出品 | AI 科技大本营(ID:)
究竟是谁毁掉了谷歌?答案指向 Prabhagar Raghavan——谷歌前广告部门主管。此人领导了一场夺取谷歌搜索控制权的内部政变,最终导致了这个网站的衰落。
这个说法并非空穴来风,其证据恰恰来自谷歌搜索本身:如果你在谷歌上搜索“谁毁了谷歌”(Who Ruined Google),搜索结果会弹出一个 AI 生成的摘要,其中引用了多篇文章,包括一篇名为《毁掉谷歌搜索的人》(The Man Who Killed Google Search)的文章。
一切始于 2024 年 5 月 14 日,谷歌做出了一个惊人的决定:在搜索结果中全面引入生成式人工智能。这个被称为“搜索生成式体验”(Search Generative Experience,简称 SGE)的新功能,从根本上改变了用户获取信息的方式。在某些搜索页面上,传统的网页链接被 AI 生成的概述所取代。这个 AI 会抓取其他网站的文本内容,自动生成答案,使用户不必访问原始网站,当然也就不会产生任何广告收入。
这种做法本身就令人费解。众所周知,生成式 AI 经常出错,可靠性存疑——这已经是公认的事实。然而,谷歌似乎完全无视这一点。在今年接受 The Verge 记者 Nilay Patel 采访*时,谷歌 CEO 桑达尔·皮查伊(Sundar Pichai)甚至声称这些改变实际上有助于互联网的发展。
这种说法显然经不起推敲。正如 Wired(《连线》杂志)的 Lauren Good 在最近一篇关于谷歌转向 AI 的文章中指出,通过选择何时何地展示这些 AI 概述,谷歌实际上在独断地决定什么是复杂问题,什么不是。更重要的是,他们在决定什么样的网络内容应该被纳入其摘要中,以及用户最终会看到和学习到什么内容。然而,这些分析都建立在一个非常天真的假设之上:认为谷歌真的关心建立和维护一个好的搜索引擎。
这个假设有多么荒谬,从谷歌 AI 的表现就可见一斑。就在本文撰写的前几天,如果你在谷歌上询问非洲是否有以字母“K”开头的国家,系统会给出这样的生成式结果:“截至 2021 年 9 月,非洲没有以字母 K 开头的国家。”这个答案引用了两个来源:一个是 2021 年的论坛帖子,内容引用了 ChatGPT 的一个幻觉性回答;另一个是一个名为“以字母 K 开头的国家”的网站,而其第一句话就提到了肯尼亚。
这样的错误并非孤例。谷歌的生成式搜索结果还曾建议使用白胶水来防止披萨上的奶酪滑落,声称有一只狗曾在 NBA 打球。虽然这些明显的错误在引发大规模批评后很快被修正,但这些问题的出现本身就说明了一个严重的问题。
这些错误的答案来自谷歌的 Gemini AI 的修改版本,这是他们对标 ChatGPT 的产品。系统会基于网页内容生成答案,而这些内容可以来自任何地方:新闻网站、随机博客、Reddit 帖子,不一而足。正如谷歌新任搜索负责人 Liz Reid 所说,这是在“让谷歌 AI 为你做搜索”。然而,这种策略存在着严重的问题。
癌
生成式 AI 存在一个根本性的问题:“幻觉”,即以权威的口吻陈述完全错误的信息。这是因为这些模型实际上并不“知道”任何事情。无论是谷歌的 Gemini、ChatGPT、Anthropic 的 Claude 还是 Meta 的 Llama,它们都只是基于训练数据预测最可能正确的答案。这意味着谷歌的 AI 驱动搜索实际上是在毫无理解和智力判断的情况下为你搜索信息,完全无法真正理解内容本身。
AI 所能做的仅仅是说:“根据数学计算,这些短语似乎构成了可能是正确答案的内容,这些链接似乎包含了这些短语,所以我猜这样回答是可以的。”这就是为什么谷歌的 AI 搜索一度会建议人们每天吃一块石头——因为它在生成答案时采用了讽刺新闻网站 The Onion 的内容。
当《The Verge》的记者 Kylie Robeson 质疑这些问题时,谷歌的回应令人震惊。他们称这些都是“非常罕见的查询,不能代表大多数用户的体验”。在 Robeson 用自己的真实体验举例说谷歌告诉她“骨头最多的哺乳动物是蟒蛇”时(蟒蛇是爬行动物,虽然确实有骨头),谷歌仍然坚持这种立场。
然而,这些看似滑稽的错误背后隐藏着一个更大的危机:谷歌的 AI 驱动搜索正在严重损害整个互联网生态系统。通过总结其他网站的链接来生成答案,谷歌实际上是在掠夺互联网,随意挑选它认为值得展示的内容部分,然后提供一个极易产生幻觉的粗略摘要。
需要注意的是,谷歌早在发明 PageRank 算法时就已经将自己定位为互联网的看门人。在最初的 PageRank 论文中,他们使用“重要性”这个词来描述如何对网页进行排名。当时的理论价值交换是:我们获得可靠、安全的结果,这些结果能真正回答我们的查询。但 AI 驱动的搜索将谷歌转变为一个真相的来源——一个极不可靠的来源。他们正在使用一项众所周知会产生错误的技术。
有人可能会想,谷歌一定会意识到这个问题,即使意识到了,也不会故意引入这种容易产生幻觉的技术,但这种想法未免太天真了。在接受 Nilay Patel 采访时,皮查伊明确承认他们完全了解幻觉问题,知道这个问题仍未解决,而且是大语言模型的固有特征。在这一点上,皮查伊说得很对。然而,令人费解的是,这位谷歌的 CEO 随后表示,正是因为这个原因,大语言模型才很好,这种特性实际上使它们非常有创造力。这种说法让人难以理解:“你在说什么?我不需要谷歌富有创造力,我需要谷歌准确回答我的问题!”
当你说某个大模型在“发挥创造力处理真相”时,你实际上是在说它们擅长撒谎。
这种策略的危险性是显而易见的。生成式 AI 可能会在处理化学火灾的方法、心理健康问题的应对等重要问题上产生幻觉,甚或权威地散布错误信息(并且谷歌 AI 已经这么做过了,只是很快得到了删除)。数十亿普通用户,那些不懂技术、不活跃在社交媒体上的人,每天都在依赖谷歌回答问题。他们会理所当然地认为,一个市值数万亿美元的科技公司不会将世界上访问量最大的信息来源交给一个不可靠的 AI。
Business Insider 的 Peter Kafka 对这种情况做出了一个精辟的比喻。他说,这就像是“在被给予一张地图和被给予会让你的车冲下悬崖的指示之间的区别”。这个比喻切中要害:谷歌的 AI 驱动搜索不仅对互联网是一场灾难,对整个社会也是如此。通过选择总结哪些查询和提取哪些网站的内容,谷歌既集中化又极化了世界的信息,同时剥夺了实际内容创作者——那些为搜索引擎提供信息的真实人类——的流量。
这个问题本身就已经够糟糕的了。然而,当皮查伊告诉 Nilay Patel(后者对此几乎没有提出质疑)说:“不,这实际上对网络有好处,因为人们会得到答案,然后他们会点击进去查看更多内容”时,情况变得更加荒谬。让我们用社交媒体来说明这种说法有多么错误。看看人们在看到标题党内容时的行为:他们会点击链接去验证吗?不会,他们会直接转发内容并对此表示愤怒,而不是产生好奇心。所有用户在使用前,都已经假设了谷歌搜索不会充满废话,不会吐出 AI 生成的、容易产生幻觉的摘要——不然我还用它做什么呢?
搜索质量持续恶化
为了深入理解这个问题的复杂性,我们需要听取行业内部的声音。作者采访到了拥有 15 年搜索引擎优化经验的专家 Lily Ray,为本文提供了独特的视角。
Q:什么是搜索引擎优化?
Ray:搜索引擎优化是试图使特定网站及其页面在搜索引擎中更容易被发现的实践。具体来说,就是让网站在谷歌、必应或其他目标搜索引擎的顶部位置排名,因为这些位置是大多数人会点击的地方。
Q:这种做法是否操纵了搜索引擎?
Ray:存在不同的方法论。首先是谷歌自己的指导方针,关于如何以一种我认为实际上对互联网有益的方式进行 SEO。我和像我这样的专业 SEO 从业者每天所做的工作,是让网站更容易被发现、更易访问、加载更快、更容易让人们找到他们要找的东西。这涉及大量的技术工作。但当然,还有另一端的光谱,那就是试图利用情况、制造垃圾信息和操纵搜索引擎的人。所以这取决于你在谈论哪种类型的 SEO。
Q:SEO 专业人士的日常工作是什么?
Ray:公司来找我们是因为他们显然想获得更多的可见度。所以我们必须考虑影响人们如何找到内容的所有不同因素。很多都是技术性的。比如,我们的大量工作都集中在页面速度、整体可访问性上。举个例子,如果一个图片上传到网站时没有图片替代文本(这实际上是网站可访问性所必需的),搜索引擎传统上就无法理解图片上的内容。所以我们必须添加正确的描述词。这是让内容更容易被发现的过程。这不仅涉及技术,还涉及内容导向。有时人们可能会以某种方式写一篇文章,但当人们去谷歌搜索时,却永远找不到这篇文章。所以我们帮助公司构建内容的方式,使人们能够真正找到他们在寻找的东西。
Q:搜索引擎如何提供信号和指导?
Ray:SEO 领域很大程度上是在摸索前进的,因为搜索引擎本质上是一个黑盒子。我们大多是在使用第三方数据,或者尽可能利用谷歌和其他搜索引擎提供的分析工具。
在技术方面,谷歌的沟通相当充分。这符合他们的利益——拥有快速的网站、易于访问的网站、具有良好用户体验的网站。谷歌举办了很多开发者大会,在技术层面提供了大量交流。比如,John Mueller 经常在谷歌举办网站管理员视频会议,几乎每月都会回答很多人的问题。
然而,当涉及到内容时,情况就完全不同了。虽然谷歌确实提供了一些指导,比如网站所有者可以遵循的问卷调查,以及所谓的“搜索质量评估指南”(一份 160 多页的文档,用于指导谷歌的人工搜索质量评估团队判断内容的好坏),但在具体问题上,比如“这个内容对谷歌来说是好是坏?”“有帮助的内容究竟意味着什么?”这些问题在过去几年变得越来越难以回答。
他们(谷歌)不能告诉我们所有事情,因为人们会利用一切可以利用的信息来制造垃圾内容——所以,这几乎变成了一场战争。但这种模糊的指导方针却带来了意想不到的后果:搜索质量显著下降。其中有很多不同的因素在起作用。SEO 从业者之所以总体上名声不好,是因为那些最擅长垃圾信息制造的人最近获得了很大的能见度。特别是在 AI 方面,许多使用垃圾手段的人确实排到了顶部位置。但是也有很多人在做真正有意义的工作,这些工作确实使互联网对每个人来说都更容易使用。
Q:SEO 领域最近的变化是什么?
Ray:最大的变化可能是 ChatGPT 的出现。这不仅仅是 ChatGPT 本身,而是像它这样的工具使垃圾制造者和 SEO 从业者都找到了加速工作的新方法。这在一年内效果出奇地好,因为搜索引擎需要时间来制定新的算法和垃圾信息政策来应对这种内容。2023 年底,你会看到大量的 AI 自动生成垃圾内容在搜索结果中,人们用各种新方法来加速他们的垃圾内容生产。
Q:谷歌究竟能不能控制搜索质量?
Ray:他们在 2024 年 3 月开始的这一系列更新中明确表示他们不是在开玩笑。他们确实严厉打击了很多使用各种 SEO 策略和垃圾策略的网站。所以我确实认为他们正在重新获得控制权。但我也认为他们在某些领域可能有点过头了,造成了很多附带损害。这就是为什么你会听到很多人说“这摧毁了我的生意”,因为有很多人完全不知道他们会被卷入其中。
Q:为什么谷歌这样一个市值数万亿美元的公司,需要这么长时间才能做出改变?
Ray:这其中的一个原因是,并非所有这些都容易被算法发现。例如,如果一个品牌商开始与第三方撰稿人合作,这些撰稿人提供产品评论内容,这些关系并不总是完全清晰,以至于算法不一定能够识别出来。所以谷歌必须使用各种不同的方法来降级这种内容并了解这些商业关系。你不能仅仅通过算法来解决所有问题。
过去几年里,几乎所有拥有强大权威性的大型网站,那些在谷歌上有着悠久 SEO 历史的大品牌,都发现了新的 SEO 机会,而这些机会为他们带来了惊人的成功。比如说,你可能注意到了,在过去几年里,几乎互联网上的每个大型品牌商都涉足了产品评测领域。这是因为这是一个巨大的收入来源。
这种现象引发了广泛的不满。人们抱怨说,每次搜索“女性最佳跑鞋”之类的关键词时,总是看到同样的几个大品牌商。有趣的是,在过去两三个月里,谷歌开始大规模打击这种行为。
Q:但为什么谷歌花了这么长时间才确定如何针对这个问题?
Ray:这些品牌商有很多用户真正喜爱的内容。谷歌有大量信号表明这些网站在许多不同类别中都产生了极其有用的内容。所以,要说这个网站的这个类别对用户来说不好,而那个类别好,这并不容易。
更复杂的是,这些都是非常大的品牌。你不能从谷歌中删除或降级一个人们正在寻找并期待看到的品牌。这种解释本身就暴露了一个自我实现的预言:这些网站之所以“受欢迎”,很可能是因为谷歌长期以来的算法偏好使它们变得受欢迎。
这种问题在实际搜索中表现得尤为明显。比方说,搜索“最佳笔记本电脑”会得到什么结果?首先是一个依靠联盟营销获得资金的科技网站,然后是百思买的链接,接着是另一个联盟营销网站,然后又是百思买,之后是一系列可以点击的问题,比如“哪个品牌的笔记本电脑最好?”
当点击第一个问题时,它会导向一个名为“New Indian Express Deals”的网站,里面全是联盟营销链接,没有任何真正的新闻报道。内容可能完全是 AI 生成的,而且充斥着 MacBook 以及 Techno Megabook 甚至 Honor Magic Book 这样在美国根本买不到的笔记本电脑的链接。
这个例子突显了搜索公司应该扮演的角色:它应该为你搜索网络,发现你可能感兴趣或有见地的内容,这些内容在互联网的海量页面中可能会被忽视。它应该突出那些制作优质内容的独立出版商,这些内容在互联网的喧嚣中可能会被淹没。然而,现实是谷歌想要突出同样的公司和同样的出版商,用同样的方式做同样的事情。
走向悬崖
正如在《毁掉谷歌搜索的人》一文中所述,谷歌的收入部门现在掌控着公司,他们要求更多的查询量——也就是平台上的搜索次数。即使这让平台变得更糟,他们也在所不惜。因为当你优化平台让人们在上面花更多时间和点击更多内容时,你实际上并没有解决查询或问题。“我知道他们在寻找更多的查询,但他们谈论的不是解决查询,他们只是想要更多的查询,这样他们就可以展示更多的广告。”
当我们观察谷歌目前的状况时,这些决策带来的毒害效果清晰可见。谷歌搜索会根据你的搜索内容随意移动其菜单位置——购物、图片、新闻和视频等功能的位置不断变化。搜索结果充斥着赞助内容、YouTube 视频(当然,YouTube 是他们自己的产品)以及随意选择的论坛内容。更糟糕的是,他们故意模糊付费链接的标识。SEO 产业已经将其蚕食殆尽,而现在我们已经很难判断谷歌是缺乏修复它的能力,还是根本就不那么在乎。
然而,谷歌搜索的糟糕状况可能还有另一个原因:谷歌刻意与搜索优化社区保持距离。虽然 SEO 这个领域无可争议地损害了谷歌的搜索结果,但值得考虑的是,除了技术标准(如网站加载速度或是否有站点地图)之外,谷歌也在刻意对 SEO 社区隐藏信息。他们害怕优化者会利用这些标准来操纵搜索结果。然而讽刺的是,这种情况还是发生了。谷歌没有明确说明什么是“好”的内容,而是模糊其词:“是的,你应该这样做,但我不会告诉你具体怎么做。”
结果就是,仍然有人在操纵系统。
这种奇怪的现象令人费解:一个市值数万亿美元的公司,在涉及实际质量控制时,却表现得像一个初创公司。正如 Ray 所说:“他们市值数万亿美元,肯定有足够的人手。我不是搜索排名工程师,所以我不知道为什么。我也觉得你比我更了解他们公司内部现在发生的事情。我认为他们内部现在有很多混乱。”
当真正谈到谷歌最近对 AI 搜索的处理时,Ray 的态度更加批评。她解释说,这个功能在谷歌实验室已经测试了一年多:“从理论上讲,AI 应该每天都在改进和学习。但在过去一年里,我和许多其他人一直在提出质量问题的警告。我们也觉得它常常并没有对现有搜索结果带来多大改进。例如,谷歌已经有了特色摘要(featured snippets)。如果他们想从某人的网站上直接在搜索结果中显示一段文字或摘录,已经有机制可以做到这一点。”
尽管如此,Ray 仍然试图保持一定的乐观:“我希望要认识到这是一个过渡时期,现在谈论它的状况并不能反映六个月后的情况。理论上,这些AI大语言模型应该学习、改进并不断变得更好。”
谷歌的 AI 搜索目前面临的一个根本性问题:一旦我们知道它的准确错误率,(无论实际错误的比例是多少,但根据过去一周我们已经看到的数量来看,确实相当多)我们还会继续信任它吗?这对谷歌的整体信任度意味着什么?
对于特色摘要,你可以说这个摘要结果只是来自于网站。而当网站逐字展示数据时,你可以也可以归咎于那个网站。但对于 AI 生成的幻觉,你根本就没法判断出具体的错误引用在哪里。
特别让 Ray 担忧的是,健康主题似乎是 AI 幻觉最多的类别之一。这种情况特别危险,因为健康信息的准确性直接关系到人们的生命安全。当被问及谷歌应该如何改进时,她提出了几个关键建议:“我认为他们应该重新评估 ‘有帮助的内容’ 这个概念,因为我认为他们在过去一年中无意中导致许多真正在制作基于经验的有帮助内容的网站失去了大量可见度。我们仍然看到很多大品牌似乎可以出现在每个可能的查询中,而我们没有听到足够多来自小品牌商的声音。我们没有给小品牌足够的机会让他们的内容参与竞争。”
这个问题的核心在于,这个拥有互联网信息垄断地位的万亿美元科技公司,在面对那些专门设计用来欺骗它的网站时,表现得软弱无力。
更令人沮丧的是,引入生成式 AI 使谷歌搜索其变得更加不可靠,然而,谷歌的 CEO 仍然能够趾高气扬地接受采访,漫谈他如何重视独立来源和更真实的声音,而他的服务却在不断失败,无法提供独特、有趣或有用的内容。
The Verge 的那次采访因对皮查伊进行了一次“严厉”的采访而受到很多赞誉,但那只是“纸老虎”而已。那只是又一个让谷歌高管模糊其立场的机会,让他们可以含糊其辞地表示他们关心搜索质量,而不必真正承担责任。记者应该准备几个具体的搜索结果例子,当场展示给他看,要求他解释为什么会这样。如果能让他在镜头前说“实际上,我觉得这很好”,那就能说明一切——这要么表明他在撒谎,要么表明他根本不关心产品质量。
皮查伊的亲信们,如现在负责多个部门的 Prabhagar Raghavan 和搜索负责人 Liz Reid,都在不断推出劣质软件,一切只为追求永续增长。这些人是科技行业更大问题的一部分:科技公司不再为客户构建产品,大型科技公司和太多的初创公司都在创造某种象征性资本,让投资者可以在上面下注,就像在轮盘赌桌上一样:“也许这次会中红色?不,也许是黑色,也许是双零?”这些产品的存在仅仅是为了展示惊人的增长数字——10 倍、20 倍、30 倍的回报,但实际上与它们声称提供的服务毫无关系。
在不太遥远的过去,科技行业是令人兴奋和有趣的。新产品的推出,无论是微妙的还是显著的,都在改变我们的生活,让事物变得更好,帮助人们建立联系,或者让我们独处的时光变得更有意义和实质性。那时的发展是真实的进步。
然而,如今的科技行业似乎专注于推出没有人要求的产品,试图解决根本不存在的问题,同时还要求人们为一个尚未实现的未来鼓掌。加密货币、元宇宙,现在是生成式 AI,这些都是为了推销未能兑现承诺的产品而建立的伪宗教运动,它们通过指责那些持不同意见的人“不够乐观”来为自己辩护,而这个行业却一再让人对未来失去希望。
然而,这种策略的真正危险性远不止于商业失败。普通用户——数十亿不懂技术、不活跃在社交媒体上的人们——每天都在依赖谷歌回答问题,他们会理所当然地认为,一个市值数万亿美元的科技公司不会将世界上访问量最大的信息来源交给一个不可靠的 AI。我们可以嘲笑谷歌建议人们每天吃一块石头这样的荒谬错误,但如果有人在试图扑灭化学火灾时搜索建议怎么办?如果一个抑郁的人向谷歌寻求帮助,而系统推荐了一些奇怪的、未经验证的治疗方案怎么办?类似的严重错误随时可能发生。
在下次变革发生之前,我们每个人都必须保持警惕和批判性思维。在一个连最基本的事实查询都可能得到错误答案的世界里,我们不能盲目信任任何单一的信息来源,即使它来自一个价值万亿美元的科技巨头。
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有