致命性自主武器系统(LAWS)
指能够在没有人类干预的情况下识别、选择和攻击目标的武器系统。LAWS是AI伦理讨论中的核心红线,也是导致[[Caitlin Kalinowski]]从[[OpenAI]]辞职的关键因素。
伦理争议
- 未经人类授权的致命自主权:LAWS的核心争议在于将"生杀大权"交给机器,缺乏人类监督和司法审查。
- 责任归属问题:当自主武器系统造成误伤时,责任应归属于开发者、部署者还是系统本身?
行业影响
[[OpenAI]]与美国国防部签署的合同在LAWS红线上显著松动,而[[Anthropic]]因拒绝移除相关限制被五角大楼列为"供应链风险"。这一分歧标志着[[AI伦理分水岭时刻]]的到来。