标签: 算法偏见

0

AI招聘的隐形偏见:机器开始偏爱“自己人”了

过去几年,我们讨论 AI 招聘时,最担心的问题通常是:它会不会歧视女性?会不会歧视少数族裔?会不会把学历、年龄、地域、学校背景变成隐形门槛? 但一篇新论文提出了一个更微妙、也更容易被忽视的问题:当求职者用 AI 写简历,企业也用 AI 筛简历时,模型会不会偏爱“自己写出来的简历”? 这个问题听起来像科幻,却已经进入了现实招聘场景。论文《AI Self-preferencing in Algorithmic Hiring》研究的正是这种现象:大语言模型在充当评审者时,是否会系统性地偏好由自己生成的内容,而不是人类写的内容,或者其他模型生成的内容。作者将其称为 AI self-preferencing,也就是“AI 自我偏好”。 这件事真正危险的地方,不在于模型“有意识地偏心”,而在于它可能通过文风、句式、表达结构、信息组织方式,识别出某种熟悉的语言模式,然后把这种熟悉感误判成“更专业”“更清晰”“更适合岗位”。 换句话说,未来招聘中真正吃亏的人,可能不是能力差的人,而是没有用对同一个 AI 工具的人。