负责任缩放政策 (RSP)
负责任缩放政策(Responsible Scaling Policy, RSP)是AI公司为管理前沿模型风险而制定的内部安全政策框架。RSP旨在确保AI模型在能力提升的同时,其潜在风险得到有效管控。
Anthropic的RSP调整
Anthropic在2026年2月更新了其RSP政策(v2.1),最显著的变化是:公司取消了"在未消除灾难性风险前无限期延迟部署"的刚性承诺,改为"除非我们认为已失去显著领先优势"。
调整背景
- 商业竞争压力:Anthropic在安全理想与商业现实之间面临根本张力。
- 行业竞争加剧:OpenAI、Google等竞争对手的快速迭代迫使Anthropic重新评估部署策略。
影响
- 被视为安全主义向商业竞争压力的阶段性妥协。
- 在AI安全社区引发激烈讨论,反映了安全与商业之间的根本矛盾。
相关概念
- [[AI核升级风险]]:RSP旨在管理的"灾难性风险"类型。
- [[anthropic]]:RSP政策的制定者和调整者。