合成权威的崛起

在谷歌EEAT标准(专业性、经验、权威性和可信度)盛行的时代,品牌和SEO人员都在争先恐后地改进内容,力求让其看起来、摸起来、闻起来都像是出自专业人才之手。这已经变成了一份令人厌倦的清单:一张微笑的专家照片、一份普通的个人简介、对资质的含糊介绍,以及一些为了显得“有见地”而写的冗长文字。

然而,其中大部分都是演戏。我们创造了一个围绕着伪造信誉而非赢得信誉的家庭手工业。

那么,当表演不再必要时会发生什么?如果我们能够合成权威,不是作为一种廉价的模仿,而是一种合法、值得信赖的替代品,那会怎样?毕竟,我们已经成功了一半。如今很多“专家”内容都是代笔、模板化或针对算法进行了大量优化。这些都算不上“值得信赖”。

如果人工智能创造的权威(不是由指定的人类专家撰写,而是由根据人类知识总和进行训练的系统生成)不仅可行,而且更可取,那会怎样?

人类权威的问题

品牌在 EEAT 方面存在一个根本性的问题。大多数品牌内部没有可靠的专家。即使有,这些人也:

  • 不想公开露面,
  • 不是熟练的作家,
  • 如果他们离开或犯错,将带来法律和声誉风险,
  • 通常缺乏能力、培训或支持来有效地做出贡献,
  • 与产品/服务、营销和/或发布工作流程和内容策略脱节(或处于不同的孤岛中)。

即使品牌确实以真名发布内容,也很少是署名作者的真实声音或观点。更多时候,这些帖子是由SEO机构或内部内容团队撰写的,为了提高可信度,这些帖子会与个人关联。

所以公司会敷衍了事。他们虚构人物,购买库存照片,雇佣代笔作家,用夸大的署名撰写内容。虽然并非所有作者都是假的,但有些作者是——而且更多的作者只是名义上的作者,而内容并非他们本人所写。

这并非资源配置的小问题,而是结构性缺陷。大多数企业根本无法(或不愿)扩大可信的人力权威。他们也深知这一点。

如果我们已经对这种幻觉感到如此安心,为什么不更进一步呢?为什么不拥抱一个模型,在这个模型中,专业知识的来源根本不是人类,而是一个系统——一个经过训练、测试和调整,能够提供准确、有用、一致的信息的系统?

重新定义EEAT标准

谷歌最初建议内容应该由人类撰写。如今,这条指导方针更多是隐含的而非明确的——但它的影响依然存在。从EEAT框架的字里行间,不难看出它的设计初衷是如何在机器生成的千篇一律的内容中,优先考虑人类创作的信号。

但如果这个假设是分类错误呢?如果合成系统能够满足甚至超越这些标准,情况又会怎样?

  • 传统意义上,专业知识指的是学科知识。但人工智能不仅仅是比人类拥有更多的阅读能力;它能够记住一切,发现规律,并随着新信息不断进化。至关重要的是,它不仅能编码事实,还能编码人类的偏好、偏见和优先事项——揭示我们自身可能未曾察觉的洞见。
  • 传统上,经验意味着第一手的参与。但实际上,大多数已发布的内容都是根据二手资料重建的。而合成系统已经可以匹敌(甚至经常超越)这些方法。我们稍后会进一步探讨这一点。
  • 权威性通常以可见性、一致性和连贯性来衡量——而这些品质正是合成系统能够以极高的保真度实现的。经过训练的模型可以在清晰的标准下运行,扩展知识传播,并在海量内容中保持稳定的基调和质量。
  • 信任建立在可靠性之上。而可靠性更多地取决于结果而非来源。如果一个合成系统准确、一致且可审计,我们为什么不应该信任它呢?讽刺的是,人工智能系统甚至可能比人类更少产生幻觉。它们不会记错、修饰,也不会在压力下即兴发挥。如果扎实且经过适当验证,合成系统可以比那些出于善意却容易犯错的个体更加一致,也更不容易出错。

如果一台机器能够始终如一地展现出知识、情境感知、洞察力和客观性,那么从所有实际标准来看,它都堪称专家。如果它在特定领域接受过训练,经过了严谨的测试,并针对可靠性进行了优化,那么它又何尝不被认可呢?

有趣的是,这并不是什么新想法。早期的人工智能模型实际上被称为“专家系统”。现在的区别在于规模、复杂性和精细程度。

那么,当我们开始为这些系统命名时会发生什么?当我们赋予它们面孔、简历和资历时会发生什么?当一个经过航空航天工程训练的合成系统被命名为“ AeroAI ”,并配有署名和作者页面时会发生什么?

这种象征性的授权——赋予合成系统名称、头像,甚至个性——或许是流程与信任之间的桥梁。它帮助用户与声音产生共鸣,实现归因,并随着时间的推移实现连续性、改进和问责。从这个意义上讲,将专家系统拟人化并非欺骗,而是澄清事实。它告诉我们它知道什么,它的作用是什么,以及谁负责它的输出。

该系统难道不值得我们给予初级营销分析师转为博客撰稿人的同等认可吗?

也许 EEAT 的未来并不在于证明它是由人类编写的;而在于证明其背后的系统是可信的、透明的并且始终正确的。

模拟体验

让我们来解析最后一点。在EEAT的所有标准中,“经验”可以说是最难复制的,也是最容易被误解的。

我们倾向于将“体验”视为神圣,是人类独有的属性。但在数字内容中,它大多已根据二手数据重建。初级文案撰写人总结客户评论。自由撰稿人解释产品手册。代笔作家解读领域专家的要点。

合成系统可以做到这一切,而且速度更快、性能更佳,数据集也更广泛。它们可以采集数千条评论,分析情绪,进行性能基准测试,并识别模式。但它们还能更进一步:进行模拟。

这些系统可以在虚拟沙箱中运行,模拟真实场景,运行可重复的实验,并揭示人类没有时间或能力去发现的洞见。例如,一个人工智能模型可以使用洗衣机的虚拟模型模拟1000次洗衣,测试不同的洗涤程序、洗涤剂和织物类型对洗衣效果的影响——所有这些都可以在几秒钟内完成。

这不是模仿。这是一种质的革新。这些系统不仅仅是报告经验,它们还能大规模地生成经验。

我们已经在高风险领域接受了这种合成经验。飞行员在模拟器中训练。外科医生在VR中排练。在谷歌“你的金钱还是你的生命”(YMYL)准则的背景下——EEAT在金融、健康和安全等领域至关重要——我们难道不应该期待更严格的标准,而不是更宽松吗?如果人工智能能够提供更高的一致性、更深入的测试和更广阔的视角,这难道不是比人类的一次性经验更值得信赖吗?

从这个角度来看,人工智能缺乏“经验”的想法不再是一种限制,而更像是一种误解。

对搜索和内容的影响

如果合成系统能够比人类更可靠、更客观、更一致地满足 EEAT 标准,那么这将具有巨大的意义:

  • 谷歌对 EEAT 的处理方式始终优先考虑结果——相关性、清晰度和实用性。尽管早期指导意见认为内容应该由人工创作,但几乎没有证据表明创作机制对他们来说很重要;他们只在乎结果。随着合成系统的改进,谷歌很可能会继续优化输出质量,而非流程的纯粹性。
  • 对人类作者身份的盲目崇拜可能会逐渐消退,取而代之的是透明、流程驱动的可信度。
  • 品牌可以通过人工智能驱动的知识管道建立机构权威,而不是依赖脆弱的个人。

如果合成系统能够生成更好、更安全、更可靠的信息,那么我们对作者身份、信任和质量的思考方式就需要改变。谷歌不太可能关心内容是如何产生的——它只关心内容是否有用、是否相关,以及是否符合用户期望。只要合成内容表现良好,我们就有理由预期谷歌会继续展示它,无论它是由人工、系统还是两者兼而有之的团队编写的。对于品牌而言,风险甚至更高。那些早期采用合成权威的人可以构建出超越最优秀编辑团队的知识系统。

如果合成权威能带来更好的结果,那么执着于人工创作就成为一种负担,而非美德。那些拥抱合成管道(内容是经过校准、可审计的系统的输出)的品牌,将在规模上主导知名度和信任度。

问题不仅仅在于我们是否仍然需要人类作者,还在于我们是否能够负担得起。

另请观看

Jono Alderson 在最近一期的 The Search Session 播客中更深入地探讨了 EEAT 和所有技术 SEO 相关内容,并与主持人 Gianluca Fiorelli 进行了深入交流。

本集充满了对搜索、内容系统和机器驱动专业知识的未来的见解。

内容是为机器而非人而设的

内容越来越不再仅仅为人类而生,而是为系统而生。随着零点击搜索、人工智能摘要和答案引擎的兴起,你的很多内容将永远不会被直接看到。它们将在其他地方被解析、汇总和重新打包。

在这个世界上,内容变成了库存的结构化表达——你的产品、你的流程、你的观点。而合成系统更有能力大规模地生成这种结构化、语义丰富、机器可读的内容。

它们可以按照模式工作。它们可以为 API 编写代码。它们可以针对向量嵌入和大型语言模型输入进行优化。它们能够保持一致性、可审计性,并且全面,这是人类团队无法比拟的。

目标不再仅仅是为读者提供信息,而是为机器提供信息——清晰、一致、规模化。而那些在这一层内容上采用人工创作的品牌,将在新的搜索生态系统中构建最坚实的基础。

合成专家的伦理与视角

我们已经将人工合成的权威性常态化了。每当我们信任谷歌的精选摘要、AI 生成的概述或 ChatGPT 的总结性解释时,我们实际上就听命于机器生成的专业知识。我们不会问它是谁写的——我们只会根据它是否有效来判断。如果这种信任已经建立,那么对人工合成作者身份的不适感实际上并非源于质量,而在于视觉效果。

这种转变必将引发争议。一些人认为,合成权威会破坏信任、客观性和问责制。另一些人则指出“恐怖谷效应”——机器过于逼真地模仿人类时,我们会感到不适——并认为社会可能永远无法完全接受合成角色。

这里的担忧是合理的。如果人工智能专家犯了错误,会发生什么?谁来承担责任?如果一个系统被优化为说服而不是提供信息,该怎么办?如果偏见被放大而不是消除,该怎么办?

但如今的现状也并非完全良善。我们已经容忍了代笔、套用作者和算法优化的废话。许多文章纯粹是为了排名而委托,由外包写手在传送带上创作,没有任何披露、背景或与读者的联系。

综合权威与欺骗无关——而是超越表现,变得更加严格、可审计和透明。

透明度才是真正的问题所在。如果内容是机器生成的,读者应该被告知吗?或许可以。但如果内容是代笔的,读者也应该被告知吗?如果内容是为了SEO而不是用户而制作的,读者也应该被告知吗?如果内容技术上正确,但体验上却空洞无物,读者也应该被告知吗?透明度是一把双刃剑。

目前已有一些新兴的法律框架,要求在特定情况下披露人工智能生成的内容。但更重要的问题并非这些内容是否由人工智能创作,而是创作方式——无论是人类创作还是人工智能创作——是否清晰、可追溯且符合标准。

合成作者身份并没有降低门槛,而是提高了我们解释事物如何产生以及为什么产生的期望。

迈向后人类信任网络

我们或许正在进入这样一个阶段:网络上最可靠、最有用、最一致的信息都来自非人类系统。权威正在与身份分离。专业知识正在成为一种流程属性,而非个性特征。

合成权威并非要取代人类,而是要建立一种新的信任模式——一种基于一致性、透明度和绩效的模式。如果做得好,它可以比传统的作者身份更严谨,比代笔更诚实,也比依赖少数几位有名无实的专家更具可扩展性。

在实施合成权威之前,您需要一个明确的基础:

  • 确定你的知识领域。你的组织需要权威地掌握哪些主题?
  • 开始整理和分类知识。这意味着源材料、内部文档、第一方数据和结构化的反馈循环。
  • 设计并训练您的专家系统。无论是通过精细调整的法学硕士 (LLM) 还是结构化的工作流程,开始系统化您的专业知识的获取、审查和发布方式。
  • 建立透明的作者协议。声明系统何时是作者。展示其训练数据。解释其维护方式。

现在的挑战不仅仅是我们是否允许人造专家的存在,而是我们是否认真对待他们——我们是否打造他们、管理他们,以及是否对他们提出比对人类同行更高的要求。

那些公开、合乎道德且策略性地拥抱合成权威的品牌将重新定义信任和知识在网络上的运作方式。而那些固守“唯有人类作者”这一怀旧观念的人,可能会发现自己既被时代所超越,又被时代所淘汰。

合成权威的时代尚未到来。它已经到来。问题在于我们是否准备好信任它——以及我们是否准备好迎接一个最权威的内容不再由个人产生,而是由流程产生的世界。

0条评论|0人参与网友评论
最热评论

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部