AI招聘偏见

AI招聘偏见

AI招聘偏见

概述

AI招聘偏见是指人工智能系统在招聘流程(简历筛选、面试评估、候选人排序等)中产生的系统性、不公平的偏好或歧视。传统上,AI招聘偏见主要关注人口统计学属性(性别、种族、年龄、地域等)的歧视,但本文揭示了一种新型偏见——[[AI自我偏好 (AI Self-preferencing)]],即AI模型偏好由自己或同源模型生成的内容。

传统偏见类型

  • 数据继承偏见:训练数据中的人类社会偏见被AI继承
  • 人口统计学偏见:对性别、种族、年龄、地域等的歧视
  • 学历/背景偏见:对学校、专业、过往公司的偏好

新型偏见:AI自我偏好

详见 [[AI自我偏好 (AI Self-preferencing)]]。

治理空白

现有AI公平框架主要关注人口统计学偏见,而"AI-AI交互"产生的偏见尚未被充分纳入治理框架。论文指出,简历由哪个模型生成通常不被记录,也不属于现有公平框架里的典型受保护属性。

缓解框架

  1. 多模型交叉评估:使用多个模型进行多数投票
  2. 人类复核:高风险岗位必须有人类参与最终决策
  3. 来源盲化:隐藏简历的生成来源信息
  4. 定期审计:检查筛选结果是否偏向某种AI文风
  5. 岗位能力结构化评价:将评估聚焦于岗位真实需求而非表达风格

社会影响

  • 创造新的"工具鸿沟":是否使用、如何使用特定AI工具成为新的求职不平等来源
  • 可能导致"模型暗号游戏":求职者需要猜测企业使用的AI模型
  • 企业可能错过真正的人才:筛选器偏好"会适配筛选器的人"而非"最能解决问题的人"
分享到