截至 2026 年 4 月 24 日,DeepSeek V4 Preview 已经不是传闻:官方新闻页、API 更新日志、价格页和 Hugging Face 模型卡都出现了 V4-Pro 与 V4-Flash。真正的问题变成:普通用户和开发者现在该不该迁移,应该选 Pro 还是 Flash,1M 上下文和开源权重到底能带来多少实际价值。

DeepSeek V4 到底上线了吗Link

先把最容易吵起来的问题说清楚:截至 2026 年 4 月 24 日,DeepSeek V4 已经进入官方 Preview 阶段,并且 API 文档已经列出 deepseek-v4-pro 和 deepseek-v4-flash。
这和前几个月的传闻不一样。官方新闻页写明 V4 Preview 已经 live,并说网页端可通过 Expert Mode / Instant Mode 体验;API 更新日志也写明 base_url 不变,只需要把 model 参数改成 deepseek-v4-pro 或 deepseek-v4-flash。
但这不等于所有问题都尘埃落定。Preview 的意思是:你可以开始真实试用,也可以开始做迁移验证,但不要把它当成已经经过半年生产稳定性的老模型。尤其是企业应用、Agent 工作流、长上下文检索和代码生成链路,仍然要按自己的任务集做回归测试。
一句话判断:V4 已经不是“网传要发布”,而是“官方 Preview 可用”;但是否适合立刻替换你的主力模型,要看你的任务风险和验证成本。
Pro 和 Flash 差在哪Link

DeepSeek V4 不是一个单独模型,而是一组分档:V4-Pro 和 V4-Flash。
官方模型卡给出的核心差别很直接:V4-Pro 是 1.6T 总参数、49B 激活参数;V4-Flash 是 284B 总参数、13B 激活参数。两者都支持 1M 上下文,但产品定位不同。
Pro 更像“高难度任务的主力”:复杂推理、仓库级代码分析、多步骤 Agent、长链路规划、难题求解。Flash 更像“高频调用的默认选项”:日常问答、轻量代码、简单 Agent 步骤、批量生成、对成本敏感的产品功能。
所以不要问“哪个更好”,应该问“这次调用值不值得上 Pro”。如果你把所有流量都打到 Pro,成本会被输出 token 和长上下文快速放大;如果你把所有复杂任务都压给 Flash,又可能在最关键的推理步骤上省小钱、吃大亏。
更稳的路线是分层:默认 Flash,只有在复杂推理、关键决策、疑难代码修复和最终审阅阶段切 Pro。
老模型名还能用多久Link
官方更新日志写得很明确:deepseek-chat 和 deepseek-reasoner 会在 2026 年 7 月 24 日退场。当前兼容期内,它们分别路由到 V4-Flash 的 non-thinking 和 thinking 模式。
这对开发者很重要,因为很多项目里配置的不是底层版本名,而是这两个老 alias。如果你的应用只看“接口还能返回”,很容易误以为没变化;但实际模型行为、成本结构、上下文能力和输出风格都可能已经换了底层。
建议分三步迁移:
- 把配置里的模型名从 alias 改成显式的
deepseek-v4-flash或deepseek-v4-pro。 - 对 thinking / non-thinking、JSON 输出、tool calls、FIM 等能力分别跑一组回归。
- 在 2026 年 7 月 24 日前完成生产切换,避免退场当天被动救火。
如果你只是个人用户,知道“旧名字还能用一阵子”就够了;如果你是产品团队,这个日期应该直接进迁移排期。
价格真的便宜吗Link

从官方价格表看,V4-Flash 的价格非常激进:cache miss 输入每百万 token 0.14 美元,cache hit 输入每百万 token 0.028 美元,输出每百万 token 0.28 美元。V4-Pro 则是 cache miss 输入每百万 token 1.74 美元,cache hit 输入每百万 token 0.145 美元,输出每百万 token 3.48 美元。
但“便宜”不能只看输入单价。真实账单通常由三件事决定:输入长度、输出长度、缓存命中率。
1M 上下文会诱人地鼓励你把更多资料塞进 prompt。问题是,长上下文一旦变成常态,cache miss 的输入成本会被放大,模型生成长答案时输出成本也会继续叠加。反过来,如果你的系统提示词、工具定义、文档模板高度重复,context caching 命中率高,V4 的有效成本会明显下降。
所以成本判断不要停在“它比谁便宜”。更实际的算法是:拿你自己的 100 条真实请求,分别测 Flash、Pro、缓存命中和输出 token,再算单位任务成本。对 Agent 产品来说,这比单看价格表靠谱得多。
1M 上下文解决什么问题Link

1M 上下文是 V4 最容易被用户感知的变化。它意味着模型一次可以看到更长的代码仓库片段、更大的文档集、更完整的历史对话和更复杂的任务说明。
这会让三类场景明显受益:
- 仓库级代码分析:不必每次只喂几个文件,模型能同时看到更多调用链和约束。
- 长文档审阅:合同、研报、规范、日志和会议资料可以减少切片损耗。
- 多步骤 Agent:工具说明、历史状态、计划和中间结果能留在同一上下文里更久。
但长上下文不是万能药。它不能自动保证事实准确,也不能替代检索排序、引用校验和工具结果验证。上下文越长,越需要结构化输入:目录、摘要、优先级、来源标记和明确的问题边界。
我会把 1M 上下文理解成“给复杂工作流更大的工作台”,而不是“模型从此不会漏看重点”。工作台变大了,整理材料的责任反而更重。
Agent 和写代码能力该怎么判断Link
官方新闻页把 V4 的 Agentic capabilities 和 coding 作为重点卖点,Hugging Face 模型卡也列出了多项代码、Agent 和工具相关 benchmark。AP 报道也提到 DeepSeek 自称 V4 在知识、推理和自主任务执行能力上有明显提升。
但用户真正该关心的不是某个榜单第一,而是它在你的工作流里能不能稳定完成闭环。
如果你用 V4 做代码,至少测这些场景:
- 给定一个真实 bug,能否定位到正确文件,而不是只写漂亮解释。
- 改完代码后,能否主动运行或建议正确测试。
- 面对大型仓库,是否能保持模块边界,不乱改无关文件。
- 生成 JSON、调用工具、处理错误时,格式稳定性是否比旧模型更好。
如果你用 V4 做 Agent,重点看:任务分解是否稳、工具调用是否准、失败后是否会恢复、长链路里是否会忘记最初目标。Agent 能力不是“会调用工具”四个字,而是连续几十步之后还能不能保持方向。
开源权重意味着什么Link
DeepSeek 这次继续强调 open-sourced,并在 Hugging Face 上放出 V4 系列权重。对开发者来说,这至少带来三层意义。
第一,透明度更高。你可以看到模型卡、参数规模、精度说明和评测表,而不是只能通过 API 黑盒猜。第二,生态更快。第三方平台、推理服务、企业内网和研究团队可以更快围绕权重做适配。第三,议价权更强。开源权重会给闭源 API 供应商更大压力,也会让企业在供应商选择上更有余地。
但开源不等于低门槛自托管。V4-Pro 的规模非常大,个人和小团队很难自己用普通机器跑出接近官方服务的体验。真正可落地的路线,多半是 API、托管推理或第三方服务;自托管更适合有明确合规、成本或内网需求的团队。
换句话说,开源权重最大的价值未必是“每个人都能本地跑”,而是让生态不完全被一个入口控制。
现在该不该迁移Link
我的建议很简单:个人用户可以马上试,开发者可以马上测,生产系统不要盲切。
适合马上迁移的场景:
- 你现在用的就是
deepseek-chat或deepseek-reasoner,需要赶在 2026 年 7 月 24 日前完成模型名迁移。 - 你的任务对成本敏感,且大多数调用可以由 Flash 承担。
- 你有长上下文、代码分析、Agent 工作流这些 V4 明显想强化的场景。
不建议立刻全量切换的场景:
- 你的业务高度依赖稳定 JSON、严格格式或低延迟 SLA。
- 你的输出会直接进入高风险决策,不经过人工或规则校验。
- 你还没有自己的 benchmark,只准备拿官方跑分做依据。
更现实的做法是灰度:先把 5% 到 10% 的低风险流量打到 V4-Flash,把复杂审阅或高难任务单独试 V4-Pro;同时记录成本、失败率、用户满意度和人工返工率。等这些指标过关,再谈全量迁移。
结论:先把兴奋感变成验证表Link
DeepSeek V4 的确值得关注。它把 1M 上下文、Pro/Flash 分档、双模式推理、开源权重和低价 API 放在同一个发布里,对开发者和 AI 产品团队都有吸引力。
但最好的姿势不是马上喊“替代谁”,而是把兴奋感变成验证表:你的任务是什么,能不能用 Flash,什么时候需要 Pro,缓存命中率是多少,长上下文是否真的减少返工,Agent 是否能稳定闭环。
如果这些问题有答案,V4 会是一张很有价值的新牌;如果这些问题没答案,再漂亮的参数和跑分也只是热闹。
资料来源Link
- DeepSeek V4 Preview Release;DeepSeek API Docs;访问日期:2026-04-24;用于确认 V4 Preview 上线、模型分档、1M 上下文、API 可用和 legacy 模型退场信息
- DeepSeek API Change Log;DeepSeek API Docs;访问日期:2026-04-24;用于确认 2026-04-24 API 更新和 deepseek-chat/deepseek-reasoner 的兼容映射
- Models & Pricing;DeepSeek API Docs;访问日期:2026-04-24;用于核对 V4-Pro、V4-Flash 的上下文长度、最大输出、功能和价格
- DeepSeek-V4-Pro model card;Hugging Face;访问日期:2026-04-24;用于核对参数规模、MoE 架构、1M context 和官方模型卡中的评测描述
- China's DeepSeek launches an update of its AI model;AP News;访问日期:2026-04-24;用于补充外部媒体视角、行业评价和独立评测提醒
