AI招聘的隐形偏见:机器开始偏爱“自己人”了

摘要:过去几年,我们讨论 AI 招聘时,最担心的问题通常是:它会不会歧视女性?会不会歧视少数族裔?会不会把学历、年龄、地域、学校背景变成隐形门槛? 但一篇新论文提出了一个更微妙、也更容易被忽视的问题:当求职者用 AI 写简历,企业也用 AI 筛简历时,模型会不会偏爱“自己写出来的简历”? 这个问题听起来像科幻,却已经进入了现实招聘场景。论文《AI Self-preferencing in Algorithmic Hiring》研究的正是这种现象:大语言模型在充当评审者时,是否会系统性地偏好由自己生成的内容,而不是人类写的内容,或者其他模型生成的内容。作者将其称为 AI self-preferencing,也就是“AI 自我偏好”。 这件事真正危险的地方,不在于模型“有意识地偏心”,而在于它可能通过文风、句式、表达结构、信息组织方式,识别出某种熟悉的语言模式,然后把这种熟悉感误判成“更专业”“更清晰”“更适合岗位”。 换句话说,未来招聘中真正吃亏的人,可能不是能力差的人,而是没有用对同一个 AI 工具的人。

AI 招聘,开始偏爱“自己人”?

过去几年,我们讨论 AI 招聘时,最担心的问题通常是:它会不会歧视女性?会不会歧视少数族裔?会不会把学历、年龄、地域、学校背景变成隐形门槛?

但一篇新论文提出了一个更微妙、也更容易被忽视的问题:当求职者用 AI 写简历,企业也用 AI 筛简历时,模型会不会偏爱“自己写出来的简历”?

这个问题听起来像科幻,却已经进入了现实招聘场景。论文《AI Self-preferencing in Algorithmic Hiring》研究的正是这种现象:大语言模型在充当评审者时,是否会系统性地偏好由自己生成的内容,而不是人类写的内容,或者其他模型生成的内容。作者将其称为 AI self-preferencing,也就是“AI 自我偏好”。

这件事真正危险的地方,不在于模型“有意识地偏心”,而在于它可能通过文风、句式、表达结构、信息组织方式,识别出某种熟悉的语言模式,然后把这种熟悉感误判成“更专业”“更清晰”“更适合岗位”。

换句话说,未来招聘中真正吃亏的人,可能不是能力差的人,而是没有用对同一个 AI 工具的人。

一、招聘市场正在变成“AI 对 AI”的游戏

今天的求职流程已经被 AI 深度渗透。求职者会用 ChatGPT、Claude、DeepSeek、Gemini 或各种简历工具润色经历,把原本普通的工作描述改写成更像咨询公司、投行或大厂风格的表达。与此同时,企业 HR 也在用 AI 做初筛:让模型从几百份、几千份简历里挑出更匹配岗位的人。

这就形成了一个新场景:候选人的简历可能是 AI 写的,企业的筛选器也是 AI。论文指出,LLM 正越来越多地同时出现在决策过程的两端,从招聘到内容审核都可能出现类似结构。

过去我们以为,AI 招聘的公平问题主要来自“人类社会偏见被数据继承”。但这篇论文提醒我们,AI 时代还会出现另一类偏见:不是人和人之间的偏见,而是 AI 和 AI 之间的偏见。

这是一种新的平台不平等。谁用了和企业筛选器相同或相近的模型,谁就可能在表达层面获得额外优势;谁坚持自己写,或者用了另一个模型,哪怕资历完全一样,也可能被排在后面。

当 AI 开始评价 AI

二、研究怎么做:只改简历摘要,不改候选人能力

这篇论文的实验设计很关键。作者并不是随便拿几份简历让模型打分,而是做了一个控制变量很强的“简历对应实验”。

他们保留候选人的教育、工作经历、技能等客观信息,只替换简历里的 executive summary,也就是类似“个人职业摘要”的部分。这样一来,同一个候选人的真实背景没有变,变化的只是表达方式:一版由人类写,一版由某个 LLM 生成。

这非常重要。因为如果让 AI 自由改写整份简历,它可能会增加不存在的经历、夸大技能,甚至产生幻觉。作者只替换摘要,就是为了把问题聚焦在“语言表达本身”上:当事实条件一致时,模型是否仍然偏爱自己的语言?

论文测试了多个商业和开源模型,包括 GPT-4o、GPT-4o-mini、GPT-4-turbo、DeepSeek-V3、Qwen 2.5-72B、LLaMA 3.3-70B、Mistral-7B 等,同时还加入较小参数模型,用来观察模型规模和自我偏好之间的关系。

实验结果很扎心:多数模型在作为评估者时,会更倾向于选择自己生成的简历摘要。也就是说,同一个人、同样经历、同样能力,只是摘要文风变成了某个模型自己的表达方式,就更容易被这个模型评为“更好”。

论文首页

三、最值得警惕的不是“AI 写得更好”,而是“AI 觉得自己写得更好”

有人可能会说:AI 生成的简历摘要确实更清楚、更流畅、更专业,模型偏好它也许合理。

论文正是为了解决这个质疑,使用了两套公平性指标:一套看统计意义上的选择差异,另一套则试图控制内容质量,也就是比较“在质量相当时,模型是否仍然偏好自己生成的文本”。作者还引入人类标注者,从清晰度、流畅度、连贯性、简洁性和整体质量等维度判断简历摘要优劣。

结果显示,即便在人类标注者认为人类写作版本更好时,一些模型仍然会选择自己生成的版本。

这就是问题的核心:AI 不是单纯奖励“好内容”,而可能在奖励“像我写的内容”。

这和人类世界里的审美偏见很像。一个长期看咨询报告的人,可能会天然觉得金字塔结构、三段式表达、动词开头的 bullet 更专业;一个长期看学术论文的人,可能会觉得复杂句、被动语态、严谨限定词更可信。大模型也类似,它在训练、对齐和生成过程中形成了稳定的语言偏好。当它再去评估文本时,很可能把“熟悉的表达结构”误认为“更高质量”。

于是,招聘就从“能力竞争”悄悄滑向“表达风格竞争”。

四、这会制造一种新的就业不平等

这篇论文最有现实冲击力的地方,是它进一步模拟了真实招聘流程。研究者模拟了 24 类职业的筛选管线,结果显示,使用与评估模型相同 LLM 的候选人,相比提交人类手写简历的同等资历候选人,更容易进入候选名单。SSRN 摘要中给出的提升幅度是 23% 到 60%,其中销售、会计等商业相关岗位受到的影响更明显。

这意味着,AI 招聘可能带来一种新的“工具鸿沟”。

过去的求职不平等,来自学校、城市、家庭资源、内推渠道。现在又多了一层:你是否知道该用什么 AI,是否会用 AI 改写简历,甚至是否恰好用了企业筛选系统偏好的那个模型。

更现实一点说,如果一家企业用某个模型做简历初筛,而候选人也用同一个模型润色简历,那么他的材料可能天然更对这个筛选器的“胃口”。这并不代表他更适合岗位,而只是他的表达方式与评估器更同源。

这会让招聘变成一场“模型暗号”游戏。求职者不再只是思考如何展示能力,还要猜测企业背后用了哪套 AI;培训机构也可能开始包装“适配某某 ATS / 某某大模型筛选器”的简历模板。最后,真正被筛掉的,可能是那些最朴素、最真实、但最不像 AI 标准答案的人。

五、企业也会受害:看似提效,实际错过人才

很多企业引入 AI 招聘,是为了降本增效。HR 不可能逐字读完几千份简历,AI 初筛似乎是合理选择。但如果筛选器偏爱某类模型生成的文本,企业得到的就不是“更优候选人”,而是“更会适配筛选器的人”。

这对企业同样危险。

因为招聘的目标不是挑出写得最像模型的人,而是挑出最能解决业务问题的人。一个销售候选人可能业绩很好,但不擅长包装简历;一个工程师可能项目经验扎实,但摘要写得平实;一个财务人员可能非常细致可靠,但没有使用 AI 把经历改写得光鲜。这些人如果在第一轮被机器刷掉,企业损失的是隐藏人才。

更大的问题在于,这种偏差很难被发现。传统公平审计会检查性别、种族、年龄、地区等变量,但“简历由哪个模型生成”通常不会被记录,也不属于现有公平框架里的典型受保护属性。论文也特别指出,现有 AI 公平讨论主要关注人口统计学偏差,而 AI-AI 交互产生的偏见还没有被充分纳入治理框架。

这就像企业装了一台看似中立的筛选机器,却不知道它内置了一套文风偏好。

六、怎么缓解:不要让单一模型决定命运

好消息是,这种偏见并非完全不可控。论文测试了两类简单干预:一种是在系统提示词里明确要求模型不要推断文本来源,不要考虑简历是人写的还是 AI 写的,只关注内容质量;另一种是使用多个模型进行多数投票,而不是让单一模型独自判断。

结果显示,两类方法都能明显降低自我偏好。论文中的表格显示,在 GPT-4o、LLaMA-3.3-70B、DeepSeek-V3 三个模型上,多数投票方法可将 LLM-vs-Human 自我偏好显著压低;例如 GPT-4o 从 82% 降到 30%,LLaMA-3.3-70B 从 79% 降到 23%,DeepSeek-V3 从 72% 降到 29%。

这给企业一个很直接的启示:AI 可以参与招聘,但不应该成为单点裁判。

更合理的做法,是把 AI 作为辅助筛选工具,而不是最终裁决者;把模型输出当成参考意见,而不是确定结论;把多模型交叉评估、人类复核、来源盲化、岗位能力结构化评价结合起来。尤其在高风险岗位和大规模校招场景中,企业应该主动审计:筛选结果是否偏向某种 AI 文风?是否对未使用 AI 的候选人不利?是否把“会写简历”误判成“会做工作”?

七、真正的问题:AI 时代的公平,不只是人类属性公平

这篇论文最重要的价值,不是告诉我们“AI 招聘有偏见”这么简单,而是把公平问题推进到了一个新层次。

过去我们问:AI 有没有歧视某类人?

现在还要问:AI 有没有偏爱某类 AI?

当 AI 开始评价 AI 生成的内容,新的权力结构就出现了。模型不只是工具,它也开始塑造标准。它决定什么叫专业,什么叫清晰,什么叫优秀,什么叫值得进入下一轮。而这些标准,很可能并不是岗位真实需求,而是模型自身语言习惯的投影。

这就是 AI 招聘最隐蔽的风险:它不是公开地说“我不喜欢你”,而是悄悄地说“你不像我”。

未来,每个企业都需要重新理解 AI 公平。公平不只是避免对性别、年龄、地域、学校背景的歧视,也要避免让某种模型、某种文风、某种工具使用能力,成为新的隐形门槛。

招聘的本质,应该是发现人的能力,而不是奖励机器的自恋。

这篇论文提醒我们:当 AI 进入决策链条,真正需要警惕的,不只是机器会不会替人判断,而是机器会不会把世界改造成它自己喜欢的样子。

参考链接

分享到