
在过去的一年里,整个科技圈都在为一个词沸腾——“全能智能体”(Autonomous Agents)。所有的创业企划书、技术大会和开源项目,都在描绘这样一个终极愿景:打造一个拥有自主思考能力的超级大脑。只需给它一个宏大的目标,它就能自行拆解任务、规划路径、调用工具,完美解决所有问题。
然而,Anthropic 核心技术团队的 Barry Zhang 与 Mahesh Murag 在最近的公开演讲中,却毫不留情地戳破了这个泡沫。他们向全球的开发者传递了一个极具颠覆性的信号:停止对全自动"超级智能体"的盲目崇拜,将战略重心转移到构建"技能包"(Skills)上。
这并非博人眼球的危言耸听,而是站在大模型应用最前线、踩过无数坑之后得出的血泪经验。这篇文章,我们将深度拆解 Anthropic 这一反直觉战略背后的工程逻辑与商业洞察,看看为什么在 AI 落地的真实战场上,"务实的退让"反而会成为最大的进步。
一、 为什么"全能智能体"在真实世界中屡屡碰壁?
要理解 Anthropic 的转向,首先要明白目前主流 Agent 架构的致命软肋。
绝大多数开发者在构建 Agent 时,陷入了一种"拟人化"的执念。我们希望 AI 像一个绝顶聪明的独立生命体,能够在面对未知挑战时,即兴发挥,自行摸索出解决方案。但在真实的工程环境和复杂的商业场景中,这种逻辑显得极其脆弱。
1. 泛化推理与垂直壁垒的断裂
通用大模型的"智商"确实在呈指数级跨越,它们能写诗、能推导复杂的数学公式,甚至能通过人类的各种资格考试。但是,“聪明"并不等于"懂行”。当一个全能 Agent 被直接扔进企业内部庞杂的 IT 系统、面对充满历史包袱的业务流程时,它就像一个掌握了全人类基础理论却没有任何实操经验的应届生。它缺乏特定领域的深度 Know-how(核心技术诀窍),一触碰到需要严密行业逻辑的真实任务,就会瞬间崩溃。
2. 灾难性的工程可观测性与维护成本
现代软件工程的基石是确定性、可测试性和可追踪性。而目前的 Autonomous Agent 完全是一个不可控的黑盒。当它在后台进行多步"思考-行动-观察(ReAct)"循环时,任何一个微小的幻觉或推理偏差,都会在后续的步骤中被无限放大(即误差累积效应)。更要命的是,当任务执行失败时,开发者几乎无法定位具体是哪一次"自我反思"出了问题。这种极高的不可靠性和难以调试的特性,注定了绝大多数标榜自主运行的 Agent,最终只能活在精心剪辑的 Demo 视频和理想化的沙盒环境里,根本无法跨越工业级部署的鸿沟。
二、 认知重置:从"自主生命体"到"标准化能力插件"
既然让 AI "自己找路"行不通,Anthropic 给出的解法是一次极具哲学意味的倒退——回到软件工程的常识中去,将人类的智慧结晶封装为 AI 的"手脚"。
他们提出的核心概念是"技能(Skills)"。
什么是技能? 它一点也不科幻,甚至显得有些朴实无华。在物理层面上,它可能只是一个普通的文件目录,里面井然有序地存放着几段 Python 脚本、一些 Bash 命令行指令、精心调优过的提示词模板(Prompts),以及详尽的业务标准操作流程(SOP)。
这种范式的转变,实际上是把不可控的"AI 动态规划"变成了高度可控的"静态资产库"。
1. 极致的模块化与可组合性
传统 Agent 试图在一个庞大的提示词框架内塞入所有的工具和逻辑,导致系统臃肿且极易互相干扰。而 Skills 则是原子化的。它们就像乐高积木,每一个技能包只负责解决一个极其具体的微小任务(比如"拉取昨天的销售数据"或"校验合同中的违约金条款")。当你需要完成复杂工作时,可以像拼装积木一样,将不同的技能灵活组合。
2. 拥抱现代软件生命周期管理
一旦我们将 AI 的能力具象化为代码和文本文件,就意味着我们可以将整个 GitHub 的生态红利引入 AI 的开发中。技能可以被版本控制(Git),可以进行严格的代码审查(Code Review),可以在团队内部甚至开源社区中无缝分享与复用。这种工程上的严谨性,是那些依赖 AI 虚无缥缈"内心独白"的架构所无法比拟的。
3. 彻底解放上下文窗口(Context Window)
大模型时代,Token 就是最昂贵的计算资源。过去,为了让 Agent 变聪明,我们不得不在系统提示词中硬塞入海量的背景设定和工具说明,这不仅拖慢了响应速度,还极易引发模型的"注意力丢失"。而基于 Skills 的架构是"按需加载"的。AI 可以像查阅工具箱一样,只有在确定需要某项能力时,才将其相关的上下文拉取到内存中,这从根本上解决了长文本处理的性能瓶颈。
三、 跨越代码的护城河:知识资产的平权运动
这场由 Anthropic 掀起的"技能化"浪潮,其影响深远之处在于:它打破了只有硬核程序员才能开发 AI 应用的垄断。
如果我们还在死磕如何让 AI 学习复杂的规划算法,那么参与者永远只能是少数的算法工程师。但如果未来的重心是"打包经验",那么战场的规则就彻底改变了。
想象一下这个场景:
- 资深法务可以将自己审查保密协议(NDA)时关注的 20 个风险点,结合公司的法务规范,写成一段自然语言的校验规则,配合简单的文本处理脚本,打包成一个"合规审查技能"。
- 财务主管可以将每月初进行账目对账的繁琐步骤,整理成清晰的流程文档,与调用 ERP 系统的接口一起,封装成一个"自动化对账技能"。
- HR 专家能够把自己筛选特定岗位简历的独门心得,转化为一套精准的评估提示词,做成"简历初筛技能"。
这才是 AI 真正赋能千行百业的正确姿势。我们不再强求一个通用的 AI 大脑凭空生出专业智慧,而是将各行各业经过岁月沉淀、被反复验证过的人类最佳实践(Best Practices),直接以"技能包"的形式"喂"给 AI。 这不仅降低了 AI 开发的门槛,更是将企业内部最宝贵的隐性知识,成功转化为可复制、可执行的显性数字资产。AI 在这个过程中,从一个需要你事无巨细去教导的笨拙实习生,蜕变成了一个随叫随到、并且能熟练操纵所有专业工具的顶级助理。

四、 破译 Claude 的战略底牌:万物皆可调用的"运行时"
如果你一直关注 Anthropic 最近的动作,再结合这次的演讲,一切草蛇灰线便豁然开朗。
为什么 Claude 团队在过去几个月里,几乎不遗余力地在推广 MCP(Model Context Protocol,模型上下文协议)?为什么他们要在客户端里深度集成文件系统权限和底层终端(Terminal)访问能力?
因为 Anthropic 的野心,从来就不是只做一个优秀的网页端聊天机器人(Chatbot),甚至也不是做一个比拼跑分数据的单一模型。他们真正想要构建的,是一个无处不在的"技能执行环境(Runtime)"。
在他们的构想中:
- MCP 是世界语: 它定义了 AI 应该如何统一、标准地去读取数据、调用工具和执行动作。无论是本地的数据库、远端的云服务,还是你电脑里的一个 Excel 文件,只要接入了 MCP,就立刻变成了 Claude 可以直接握住的"工具"。
- 终端与文件系统是神经末梢: 赋予 AI 操控命令行的能力,意味着它不再被困在浏览器的对话框里,而是真正拥有了改变数字世界状态的物理抓手。
在这个生态中,Claude 本身只提供最纯粹的自然语言理解、意图识别和指令分发能力——它是调度中心。而真正干活的,是成千上万个由开发者、企业员工甚至普通用户通过 MCP 和文件系统构建的"Skills"。
这就好比操作系统与应用程序的关系。Anthropic 看得很清楚:操作系统的内核(大模型)固然重要,但真正决定生态繁荣度、建立起坚不可摧商业护城河的,是上面跑着的千千万万个应用程序(技能包)。
五、 结语:与其仰望星空,不如先造一把锤子
Anthropic 的这次演讲,可以说是给狂热的 AI 行业踩下了一脚及时的刹车,也指明了一条更加清晰、务实的商业化道路。
未来的 AI 竞争格局已经发生剧变。企业和开发者之间的角逐,将不再仅仅围绕着"谁能写出更精妙的 Agent 提示词架构"或者"谁的自主规划能力在测试集上高了两个百分点"。
真正的胜负手,在于谁能率先建立起更庞大、更专业、更具行业深度的"技能库"。 谁能把那些繁琐的、高频的、极其依赖特定领域经验的日常工作,最快地封装成高可靠性的 Skills;谁能让 AI 与现有的业务流咬合得最紧密,谁就能在这一波技术浪潮中攫取到最丰厚的利润。
对于我们每一个从业者、每一家正在寻求智能化转型的企业而言,这都是一个极其明确的行动指南:
不要再陷入"如何让 AI 像人一样思考"的无尽哲学探讨中。 停止构思那些宏大却虚无缥缈的全自动商业帝国。回到你的工位上,审视你每天日常工作中那些重复、机械但必须遵循既定规则的流程。
把你最擅长的那项业务逻辑,整理成一份清晰的文档;把常用的两三个工具接口,写成一段几百行的代码;将它们结合起来,打包成你的第一个"技能包"。
这看起来似乎不够酷炫,甚至显得有些笨重。但请相信,在这个充满不确定性的 AI 时代,这种务实的"倒退",才是通往真正生产力跃升的唯一捷径。