欧盟《人工智能法案》
欧盟《人工智能法案》(EU AI Act)是全球首部全面的AI法律,于2024年正式通过。该法案对AI系统进行风险分级管理,将AI应用分为不可接受风险、高风险、有限风险和极低风险四个等级,并对高风险系统设立了严格的全生命周期合规义务。
关键信息
- 类型:法律框架
- 管辖范围:欧盟成员国及在欧盟市场提供AI服务的非欧盟企业
- 核心机制:风险分级制度
- 处罚力度:对不符合规定的运营方处以巨额罚款
- 生效时间:分阶段实施,2025-2027年逐步生效
风险分级
- 不可接受风险:禁止部署,如社会信用评分、实时远程生物识别
- 高风险:严格合规要求,如关键基础设施、教育、就业、执法等领域的AI系统
- 有限风险:透明度义务,如聊天机器人需告知用户正在与AI交互
- 极低风险:无额外义务,如AI驱动的电子游戏、垃圾邮件过滤器
相关概念
- [[AI责任法律框架]] — 全球AI法律框架的整合
- [[责任护城河]] — 法律框架是构建责任护城河的基础
- [[严格责任]] — 高风险AI应用的责任归属模式
- [[举证责任倒置]] — 解决AI"黑箱"问题的法律机制