添加一个虚拟的2025年日期,提升你的AI可见度。一项新研究表明,ChatGPT及其竞争对手更看重新近度而非相关性。
早稻田大学的一个团队发现,在在线内容中添加虚假的发布日期可以显著提升其在领先AI模型中的可见度。这似乎证实了像ChatGPT这样的工具系统性地偏爱较新内容,而非同样相关的旧内容。
我们为什么关心?AI 模型似乎更看重时间戳而非质量。这意味着,除非定期更新,否则你之前的高质量内容可能会从 AI 搜索结果中消失——显然,无论这些更新是实质性的还是人为的。
他们是如何做到的?研究人员在标准化试题集的段落中添加了虚假的出版日期,其他内容保持不变。然后,他们使用 GPT-4o、GPT-3.5、LLaMA-3 和 Qwen-2.5 等七个主流 AI 模型对结果进行排序。
每个模型都更喜欢较新的文本。
- 前 10 个结果平均更新了 1-5 年。
- 个人文章排名跃升至 95 位。
- 四分之一的相关性决策仅根据日期做出。
“跷跷板效应”。在所有模型中,排名靠前的内容都倾向于年轻人,而较老的内容则系统性地下降:
- 排名 1-10:新人 0.8-4.8 年。
- 排名 61–100:最多大 2 岁。
即使是权威性极高的旧资料来源——学术论文、医学研究或详细指南——也因更新、可信度往往较低的内容而失去关注度
偏见。以下是受其影响的模型(以及未受其影响的模型):
- 最有偏见的是:Meta 的LLaMA-3-8B,其逆转率为 25%,且转变时间接近 5 年。
- 偏差最小:阿里巴巴的Qwen-2.5-72B,仅有 8% 的逆转和最小的年份变化。
- OpenAI 的GPT-4o和GPT-4处于中间位置,表现出可测量但较小的近期偏差。
背景故事。今年早些时候,独立研究员 Metehan Yesilyurt 在 ChatGPT 的配置文件中发现了“use_freshness_scoring_profile: true”设置——这证明 OpenAI 的重新排名系统明确偏向最近的内容。
接下来会发生什么?Yesilyurt 警告说,一场“时间军备竞赛”即将来临:
- 出版商可以通过伪造“2025 年更新”标签来提高排名。
- 人工智能系统将通过检测表面编辑做出反应。
- 最终,这种偏见可能会使人们更看重新鲜事物而不是质量。
他们在说什么?针对这份报告,Nectiv. 联合创始人 Chris Long在 LinkedIn 上写道:
- 我想说的是,内容新鲜度更新可能是您可以进行的更具可扩展性的页面改进之一。多年来,我们都知道它对传统搜索很有帮助。现在我们可以看到,内容更新也可能会影响 AI 可见性。
Edgy Labs 的部分 SEO 和 AI 解决方案架构师 Rich Tatum在 LinkedIn 上表示:
- “新鲜度和新近度作为 LLM 模型的相关性信号是有意义的,而具有高信任度的来源(学术论文)的档案在逻辑上会让“天真的” LLM 将这种新鲜度信号视为高度突出和值得信赖的。
- 可悲的是,我们的行业会自然而然地滥用这些信号,直到未来的法学硕士们能够摆脱这种天真的心态。而那些标准的新鲜度信号最终只会变成噪音。
这引发了SparkToro 联合创始人 Rand Fishkin 的有趣回复:
- 我认为滥用法律硕士使用的信号并不一定是一件可悲的事。我曾经非常反对谷歌的垃圾邮件,后来我看到谷歌如何滥用这个世界上邪恶的政治操纵手段来获取并保持垄断权力。大型语言模型人工智能工具提供商对此也感同身受,我认为我们没有理由仅仅为了顺从他们的一时兴起而采用一套武断的道德规范。
- 大型科技公司和人工智能工具提供商做了什么让他们的系统值得尊重?我什么也说不出来。
底线:在人工智能搜索中,新鲜感胜过事实——至少目前如此。如果你的内容不够新颖,它就已经被忽略了。
4001102288 欢迎批评指正
All Rights Reserved 新浪公司 版权所有