0
300兆瓦、22万张GPU,全租给Anthropic?这条新闻背后,AI算力战争已经变天
这不是一条普通的算力租赁新闻,而是AI基础设施战争进入新阶段的信号:连最核心的训练集群,也开始在竞争对手之间流动了。
这不是一条普通的算力租赁新闻,而是AI基础设施战争进入新阶段的信号:连最核心的训练集群,也开始在竞争对手之间流动了。
当大模型从“超级计算器”进化成会调工具、读文件、跑代码的代理型 AI,算力需求的重点也在悄悄变化。GPU 仍然是训练时代的霸主,但在持续执行、低延迟逻辑处理和能效成本都更重要的 AI 执行时代,CPU 正重新成为底层基础设施的核心角色。
Meta 扩大与 CoreWeave 的合作,新增约 210 亿美元长期 AI 云协议,Anthropic 也紧随其后达成多年期算力合作。这家过去偏幕后、却突然被推到台前的公司,正在揭示 AI 下半场真正的竞争核心。
在人工智能爆发的今天,一场硬件革命正在悄然发生。从 ChatGPT 的实时对话,到手机上的 AI 图像生成,再到数据中心的万亿参数大模型,背后都离不开专用计算硬件的支撑。2026 年 3 月,AI 教育者 Avi Chawla 在 X(原 Twitter)上发布了一条爆款帖子,用一张视觉图表直观对比了 CPU、GPU、TPU、NPU 和 LPU 五种架构,强调它们在"灵活性、并行性和内存访问"上的核心权衡。这篇文章正是基于该帖子的深度扩展,我们将用通俗却不失技术深度的语言,带你拆解每一种芯片的内部逻辑、设计哲学、优缺点,以及真实应用场景。