摘要:在搜索领域,“排名即正义”的时代正在终结。随着 ChatGPT、Google AI Overview 和 Perplexity 等生成式引擎的普及,传统 SEO 的点击率和展示量已无法完整衡量内容价值。真正重要的,不再只是“有没有被看见”,而是“有没有被大模型吸收进答案本身”。
从“排名”走向“吸收”
在搜索领域,“排名即正义”的时代正在松动。随着 ChatGPT、Google AI Overview(AIO)和 Perplexity 这类生成式搜索入口越来越普及,传统 SEO 里那些最熟悉的指标,比如展示量、点击率、排名位置,正在失去对内容真实价值的完整解释力。今天更关键的问题已经变成:你的内容有没有被大模型真正吸收,并进入它最终生成的答案。
这正是最新一批 GEO 研究最值得重视的地方。研究者不再只问“哪些网页被看见了”,而是进一步追问:“哪些网页被模型选中之后,真正参与了答案构造?”这个视角的转变很重要,因为它把内容竞争从“争夺入口位置”推进到了“争夺答案贡献度”。
换句话说,在 AI 搜索时代,内容的价值不再只体现为一次点击,而可能体现为一句定义、一组数字、一个对比框架,甚至一整段推理骨架,被模型消化之后重新组织成用户看到的答案。
GEO 不只是被引用,而是被吸收
这项研究对 GEO 做了一个很有解释力的拆分:它至少包含两个阶段,而且这两个阶段并不是同一套逻辑。
第一阶段是 Citation Selection,也就是引用选择。用户发起提问后,平台会从海量网页里挑出候选来源。这个阶段和传统 SEO 还有不少相似之处,网站权威度、语言匹配、主题相关性、页面结构完整性,都会影响你有没有机会进入候选池。
第二阶段则是 Citation Absorption,也就是引用吸收。页面即使被选中了,也不代表它真的对最终答案产生了重要影响。很多网页只是被拿来做背景补充、导航参考或者局部旁证;只有少数页面会被模型真正“吃进去”,贡献核心定义、关键数据、因果逻辑和比较框架。
这也是这篇研究最颠覆传统 SEO 直觉的地方:高曝光不等于高影响力,被引用不等于被吸收。
过去我们很容易把“被平台引用”当作成功信号,但在生成式搜索里,这顶多说明你拿到了入场券。真正决定内容价值的,是它有没有进入答案主干,成为模型组织知识时依赖的那部分材料。
平台之间,正在分化出不同的“搜索性格”
研究里一个特别有意思的发现是,不同 AI 搜索平台在“引用宽度”和“吸收深度”之间做出了非常不同的取舍。
Perplexity 倾向于给出更多引用,它像一个强调来源透明和检索广度的资料台,努力把外部世界摊开给用户看。Google AIO / Gemini 也保留了类似搜索引擎传统,更倾向于做广泛曝光和片段式支撑。而 ChatGPT 的风格明显更克制,引用数量更少,但一旦选择了某些页面,往往会进行更深层的语言整合与内部化吸收。
这意味着,同样一篇内容,在不同平台上可能扮演完全不同的角色。它在 Perplexity 里可能是“引用池的一员”,在 Google AIO 里可能是“支撑某个判断的片段来源”,而在 ChatGPT 里则可能被压缩进答案的主体结构中。
所以未来做 GEO,不能只问“平台有没有提到我”,而应该追问三个更关键的问题:
- 我进入候选来源的概率高不高?
- 我被模型拿去做了什么,是背景补充还是核心论据?
- 在不同平台上,我的内容到底扮演什么角色?
这比传统 SEO 更复杂,但也更公平。因为它给了许多不具备绝对域名优势的内容一个新机会:只要你的页面更适合被模型拆解和重组,你就有机会在“答案贡献度”上超过那些传统强站。
真正决定吸收率的,不是外壳,而是证据密度
研究对大量页面特征进行了分析,得出了一些很值得内容创作者警惕的结论。
首先,Q&A 或 FAQ 形式并不是万能钥匙。过去很多人会直觉地认为,把页面改写成问答式更利于 AI 引擎理解,但研究发现,单纯的问答包装并不会自动带来更高吸收率。原因不难理解:模型真正需要的是高价值信息单元,而不是一个看起来像“问题与答案”的外壳。
其次,长内容本身并不是问题,松散冗长才是问题。高影响力页面往往更长,但它们不是靠字数取胜,而是靠清晰的标题层级、充足的列表结构、明确的定义段、对比段和步骤段,把复杂信息组织成可提取的骨架。模型并不害怕长文,它害怕的是那种情绪很多、结构很弱、重点全埋在段落里的长文。
再者,新闻和百科类内容在模型体系里的作用并不一样。新闻更容易凭借时效性进入候选池,但真正支撑答案逻辑框架的,往往是那些定义清晰、背景稳定、结构完整的解释型页面。换句话说,新闻可以提供“发生了什么”,但百科式内容更容易提供“这件事该如何被理解”。
这背后其实指向同一个判断:未来决定内容能否被 AI 重用的,不是关键词铺得多不多,而是你的内容有没有足够高的证据密度和结构强度。
“证据容器”会成为内容设计的新基本功
基于这些发现,研究提出了一个很值得记住的概念:Evidence Container,也就是“证据容器”。
这个说法之所以重要,是因为它把抽象的 GEO 讨论,落成了一个非常具体的内容设计问题。一个页面之所以能在 AI 搜索里被持续重用,并不是因为它单次排名很高,而是因为它内部装着足够多、足够清晰、足够可复用的证据单元。
好的证据容器通常有几个共同特征。
它的结构是模块化的。标题层级、段落边界、列表组织都非常清晰,每个小节都像一个独立的“回答模块”,能被模型单独提取。
它的内容是高密度的。定义、数值事实、对比关系、步骤描述、因果链条,这些都属于模型特别偏爱的内容体裁,因为它们可以直接进入答案构造过程。
它的语义骨架是外显的。也就是说,重点不是藏在文章深处,而是通过小标题、摘要、结构提示主动暴露出来,降低模型抽取成本。
它的信源是透明的。尤其在医疗、金融、政策、产业和技术判断这些高风险领域,未来内容能否长期被模型稳定重用,和它是否容易验证、是否方便追溯,会越来越强相关。
说得更直接一点,AI 搜索时代最有竞争力的页面,不一定是写得最花哨的页面,而是那种让模型“很好拿、很好拆、很好拼”的页面。
未来的内容评估,不该只盯着排名看板
如果“选择”和“吸收”确实是两套不同机制,那么内容团队的监控方式也该跟着变。
传统 SEO 看板最熟悉的仍然是排名、曝光量、点击率、跳出率、停留时长这些指标。但在 GEO 时代,这些指标最多只能解释“用户有没有机会看到你”,却不一定能解释“模型有没有真正用你”。
更合理的 GEO 评估,应该至少多看几层。
第一层是 Selection Rate,也就是你的域名在目标 Prompt 池中进入候选来源列表的概率。
第二层是 Absorption Score,也就是你的内容在最终答案里到底贡献了多少语言、多少事实、多少结构化论据。
第三层是 Support Quality,也就是模型在复用你的内容时,有没有准确表达你的核心论点,还是只是机械抽走了边缘信息,甚至产生了误读。
再往下,还应该做 Scenario Breakdown,把“是什么”“为什么”“怎么做”“如何对比”“复杂多约束任务”这些不同问题类型拆开看。因为同一篇内容在不同场景下,可能表现完全不同。
这才是 AI 搜索时代更接近真实竞争力的监控方式。你不是单纯在争一个位置,而是在争取成为模型优先调用的知识部件。
内容竞争,正在从“抢点击”变成“抢内化”
从更大的角度看,这项研究的意义并不只在于提出了几个新指标,而在于它提醒我们:内容流量的中介层已经发生了变化。
过去的链路相对简单,网页被搜索引擎发现,用户点击网页,网页完成信息传递和转化。而现在,中间多了一个越来越强势的解释者和压缩者,也就是大模型本身。它不只是把用户带到你的页面,而是在越来越多的场景中,先读你的页面,再决定如何替用户重新表达。
这意味着,内容的影响力会越来越多地以一种“不显山露水”的方式体现出来。用户未必点开了你的文章,但你文章中的定义、数字、分类框架和论证逻辑,可能已经成为他读到的 AI 答案的一部分。
因此,未来最重要的内容能力,可能不是制造点击欲望,而是制造“可内化性”。你要让模型觉得,这篇内容拆起来很顺手,组合起来很稳定,复用起来风险很低。
从这个意义上说,SEO 并没有消失,它只是被推向了一个更深的层次。新的竞争核心,不再是“谁更会抢排名”,而是“谁更会把内容做成可被机器稳定吸收的证据容器”。
这才是大模型搜索时代真正的新流量范式。
研究背景说明:
本文解读基于 From Citation Selection to Citation Absorption(2026)一文中披露的研究框架与结果说明。研究项目与数据集由 Zhang Kai 与 Yao Jingang 发布,并在 GitHub 开源:https://github.com/yaojingang/geo-citation-lab