数据泄露 (Data Leak)
数据泄露是指未经授权访问、披露或获取敏感信息的事件。在AI行业,数据泄露不仅涉及客户数据,还包括未发布模型细节、内部沟通和战略文件。
在AI行业的特殊性
- AI放大效应:AI工具(如Claude Code)能自动扫描和关联公开数据,极大降低发现和利用泄露的门槛。
- 后果升级:随着模型能力增长,泄露的后果可能从"尴尬"升级为"灾难"(如模型权重或训练数据泄露)。
- 安全脱节:许多AI公司将安全视为"模型训练时的附加层",而非贯穿全生命周期的工程实践。
典型案例
- [[anthropic-data-leak-2026]]:因CMS配置错误,近3000个未发布资产被公开访问。
- 苹果(2018年):通过公开sitemap文件泄露iPhone名称。
- 谷歌、Tesla:因第三方服务器配置不当泄露数据。
预防措施
- 零信任架构:所有资产默认私有,需显式审批才能公开。
- 自动化扫描:定期检测公开暴露的资产。
- 多因素验证:对CMS和云存储实施访问日志审计。
- 董事会治理:将数据治理纳入KPI。
相关概念
- [[人为错误]] — 数据泄露的常见原因
- [[零信任架构]] — 推荐的预防策略
- [[ai-as-amplifier]] — AI放大数据泄露风险