模型安全治理
模型安全治理是指对AI模型,特别是能力强大的前沿模型,进行风险评估和管控的体系。
重要性
[[GPT-5.5]]达到"高风险"评级,凸显了在模型能力快速提升的同时,安全治理的紧迫性。在[[anthropic]]的Mythos模型越权访问事件仍在发酵的背景下,前沿AI模型的安全治理问题持续成为行业焦点。
相关概念
- [[大模型作为论证机器]]:模型安全治理为"大模型不是真理机器"的论点提供了安全治理层面的新论据。
- [[企业AI转型陷阱]]:模型安全风险是企业AI转型中需要关注的重要维度。