AI招聘偏见
概述
AI招聘偏见是指人工智能系统在招聘流程(简历筛选、面试评估、候选人排序等)中产生的系统性、不公平的偏好或歧视。传统上,AI招聘偏见主要关注人口统计学属性(性别、种族、年龄、地域等)的歧视,但本文揭示了一种新型偏见——[[AI自我偏好 (AI Self-preferencing)]],即AI模型偏好由自己或同源模型生成的内容。
传统偏见类型
- 数据继承偏见:训练数据中的人类社会偏见被AI继承
- 人口统计学偏见:对性别、种族、年龄、地域等的歧视
- 学历/背景偏见:对学校、专业、过往公司的偏好
新型偏见:AI自我偏好
详见 [[AI自我偏好 (AI Self-preferencing)]]。
治理空白
现有AI公平框架主要关注人口统计学偏见,而"AI-AI交互"产生的偏见尚未被充分纳入治理框架。论文指出,简历由哪个模型生成通常不被记录,也不属于现有公平框架里的典型受保护属性。
缓解框架
- 多模型交叉评估:使用多个模型进行多数投票
- 人类复核:高风险岗位必须有人类参与最终决策
- 来源盲化:隐藏简历的生成来源信息
- 定期审计:检查筛选结果是否偏向某种AI文风
- 岗位能力结构化评价:将评估聚焦于岗位真实需求而非表达风格
社会影响
- 创造新的"工具鸿沟":是否使用、如何使用特定AI工具成为新的求职不平等来源
- 可能导致"模型暗号游戏":求职者需要猜测企业使用的AI模型
- 企业可能错过真正的人才:筛选器偏好"会适配筛选器的人"而非"最能解决问题的人"