DeepSeek V4 正式发布:百万上下文成标配,Agentic Coding 直逼 Opus 4.6

摘要:DeepSeek 今天正式推出 V4 系列模型预览版并同步开源,一次性发布 V4-Pro 和 V4-Flash 两个版本。最大的变化不是某项跑分又刷新了,而是一个产品决策:百万 token 上下文,全线标配,不额外收费。这意味着长上下文从"高端选配"变成了基础能力。

DeepSeek 今天正式推出了 V4 系列模型预览版,并同步开源。

这次不是小版本迭代,而是一次产品线重构:两个型号同时上线,技术架构做了底层升级,API 接口格式也做了重大调整。

但如果只能记住一件事,那就是这个:

百万 token 上下文,从今天开始,是 DeepSeek 全线服务的标配。不分版本,不分价位,不额外加钱。

这个决定的意义,可能比任何一项跑分提升都大。

两个型号,定位清晰

V4 这次分成了两条产品线。

V4-Pro:旗舰版

这是 DeepSeek 目前能力最强的模型。根据官方公布的评测数据,V4-Pro 在推理能力上已经追平了当前顶级闭源模型的水准,世界知识维度上仅次于 Gemini-Pro-3.1。

换句话说,在"能不能解决难题"这件事上,V4-Pro 已经站到了第一梯队。

V4-Flash:轻量版

V4-Flash 的定位是"够用且便宜"。推理能力和 Pro 版接近,但在世界知识储备和复杂 Agent 任务的处理上会有一些差距。

对于大多数日常使用场景,比如文本处理、问答、简单代码生成,Flash 版完全够用,而且 API 价格更友好。

这种"旗舰 + 经济"的双线布局,其实也是在回应市场上一个越来越明确的需求分化:不是所有场景都需要最强模型,但所有场景都需要足够好的模型。

Agentic Coding:一个值得注意的对标方式

这次发布里比较有意思的一个细节,是 DeepSeek 主动把自己的模型拿去和 Anthropic 做了对比。

根据 DeepSeek 内部员工的实际使用反馈,V4-Pro 在 Agentic Coding 场景下的表现,也就是让 AI 自主完成编程任务,整体体验已经超过了 Claude Sonnet 4.5,交付质量接近 Opus 4.6 在非思考模式下的水平。

但 DeepSeek 也坦率地承认,和 Opus 4.6 开启深度思考模式之后的表现相比,V4-Pro 还有差距。

这种"主动承认差距"的表述方式,在国内厂商的发布公告里并不常见。它至少说明两件事:

第一,DeepSeek 对自己模型的定位是清醒的,不是在做营销,而是在做工程判断。

第二,Opus 4.6 的思考模式,已经在事实上成为了行业里 Agentic Coding 能力的隐性天花板。能不能逼近这个天花板,正在变成衡量前沿模型实力的一个新标尺。

百万上下文标配:技术上怎么做到的

把百万 token 上下文从"能做但很贵"变成"标配且不加价",这不是靠降价就能实现的,背后需要架构层面的改变。

V4 在技术上引入了一种新的注意力机制,核心思路是在 token 层面做压缩。配合 DeepSeek 自研的 DSA(稀疏注意力)技术,百万级上下文所需要的计算量和显存占用都大幅下降。

这意味着什么?

对开发者来说,最直接的变化是:你可以把一整个代码仓库、一套完整的技术文档、甚至一个项目的全部上下文,一次性丢进模型里处理,不用再费心做切分、做摘要、做分段检索。

长上下文能力从"高端选配"变成"基础设施",这对 Agent 工作流、代码审查、文档分析这类场景的影响会非常大。

开发者迁移:几个实用信息

V4 在 API 层面也做了不少调整,开发者需要注意几件事。

Agent 工具适配

V4 专门针对 Claude Code、OpenClaw 等主流 Agent 工具做了适配优化。如果你正在用这些工具,切换到 V4 的成本会比较低。

双格式兼容

V4 的 API 同时支持 OpenAI 和 Anthropic 两种接口格式。切换只需要改 model 参数,不需要重写调用逻辑。

这个设计很实用。现在很多开发者的工具链里同时依赖多家模型,接口格式兼容能省掉大量适配工作。

旧接口迁移时间表

旧的 deepseek-chatdeepseek-reasoner 接口名还能继续使用三个月,7 月 24 日之后将停止服务

如果你的项目里还在用这两个旧接口名,现在就可以开始迁移了,不用等到最后一刻。

这次发布真正重要的是什么

如果把 V4 放到更大的背景里看,这次发布真正值得关注的,不是某一项能力又提升了多少。

而是三件事。

第一,长上下文从竞争优势变成了基础能力

当百万 token 上下文成为全线标配,它就不再是一个"卖点",而是一个"底线"。这会倒逼其他模型厂商跟进,也会改变开发者构建应用的方式。

以前你设计一个 AI 应用,第一步往往是"怎么把上下文压缩到模型能处理的范围内"。现在这个约束正在消失。

第二,Agentic Coding 正在成为模型能力的核心战场

DeepSeek 这次主动拿 Agentic Coding 来对标 Anthropic,说明这个方向已经不是"未来趋势",而是"当下竞争焦点"。

谁的模型能更好地自主完成编程任务,谁就能在开发者生态里占据更有利的位置。

第三,中国模型公司的产品成熟度在快速提升

从双线产品布局、到主动承认差距、到 API 格式兼容、到给出明确的迁移时间表,这些都不是技术问题,而是产品运营和开发者生态建设的问题。

V4 这次发布的整体完成度,已经和国际一线厂商的发布节奏非常接近了。

写在最后

DeepSeek V4 的发布,标志着国内前沿模型竞争进入了一个新阶段。

不再只是比谁的参数大、谁的跑分高,而是开始比:

  • 谁的产品线更清晰
  • 谁的开发者体验更好
  • 谁能把前沿能力真正变成可用的基础设施
  • 谁对自己的能力边界更诚实

从这个角度看,V4 不只是 DeepSeek 的一次版本升级。

它更像是中国大模型行业从"追赶期"进入"产品化竞争期"的一个标志性节点。


参考资料:

  • DeepSeek 官方发布公告,2026-04-24
  • DeepSeek V4 系列模型技术文档
  • 行业公开评测与开发者社区反馈
分享到