人类-AI协作
定义
人类-AI协作是指在AI提供建议后,由人类专家进行最终决策和执行的模式。在工业场景中,AI的目标不是取代人类,而是"放大人类智慧"。
在处方式AI中的体现
- AI负责预测和生成最优干预方案
- 人类专家负责审核AI处方,结合经验做出最终决策
- 当AI建议与人类直觉冲突时,人类拥有最终决策权
- 工人角色从"修理工"转型为"AI协作者"
关键原则
- 人类最终决策权:AI处方错误可能导致更大事故,人类必须保留最终决策权
- 可解释性:AI的建议必须可解释,使人类能够理解和评估
- 信任但验证:与[[ai-junior-engineer]]框架下的"信任但验证"管理模式一致
- 责任归属:AI错误的责任界定需要明确的框架
相关概念
- [[处方式AI]]
- [[可解释性AI]]
- [[ai-junior-engineer]]
- [[AI作为助手而非替代者]]
- [[人机协同作战]]
- [[责任护城河]]