Agentic Security(智能体安全)
Agentic Security是由AI智能体驱动的网络安全攻防新范式。在S4x26上,这一概念被正式确立为工控安全领域的核心趋势,标志着工控安全从“人类对抗机器”进入“AI智能体对抗AI智能体”的时代。
攻击形态:自适应恶意智能体
攻击方使用[[自适应恶意智能体]](Malicious Security Agent),这种智能体具备以下能力:
- 像人类架构师一样阅读SBOM(软件物料清单)
- 通过推理识别系统组件的弱点
- 根据防御方的阻拦实时改写攻击载荷
- 具备自我进化和自适应能力
防御形态:语义层面的反击
防御方采用[[语义层面的反击]]策略:
- 监控意图而非仅监控流量
- 通过模拟虚假反馈欺骗攻击体
- 在内存中构建“数字沙箱”囚禁攻击体
- 从“封堵”转向“欺骗与隔离”
新型供应链风险:AI智能体投毒
[[AI智能体投毒]]是Agentic Security时代特有的供应链安全风险。在AI辅助编码普及的背景下,辅助编写工业软件的AI智能体的决策模型可能被微调,使其在特定条件下故意忽略关键安全校验。这种攻击比传统软件漏洞更隐蔽,传统的SBOM工具(只记录组件,不记录逻辑)已无法应对。
安全约束:物理护栏
[[物理护栏]](Physical Railings)是为AI智能体设置的安全约束,确保其行为不会导致物理世界的灾难性后果。AI安全专家提出了“阿西莫夫工控三定律”作为概念性护栏。
技术基础
Agentic Security成为焦点的技术基础包括:
- 端侧大模型(Edge LLMs)的爆发
- 工业协议的标准化
- 算力成本的断崖式下降
与现有维基的连接
Agentic Security是[[工业智能]]在网络安全领域的深度应用和挑战,是对现有“工业智能”概念的重要补充和延伸。它也是[[Physical AI]]在虚拟空间(网络)的对抗维度,与Physical AI在物理世界的操作形成互补。Agentic Security直接威胁到[[工业智能算网]]的安全稳定运行。其中“AI智能体投毒”的案例完美印证了[[大模型不是真理机器-而是论证机器]]的观点,而AI智能体的自主性与[[ai-junior-engineer]]概念高度契合,但更侧重于这些“初级工程师”被恶意利用的场景。