今天一大消息就是开源 AI 大模型圈的“卷王” DeepSeek,憋了 15 个月后,终于把全新系列模型 DeepSeek-V4 正式公布出来了,而且照惯例,同步开源!
一时间朋友圈、技术群各种消息满天飞。现在 DeepSeek 官网和 API 都直接能用 v4 了!包括众多第三方算力平台也陆续上线。之前 Claude、Gemini、ChatGPT、Qwen 等行业里各家一直在疯狂迭代。终于,终于轮到有着“国产 Ai 图腾”、价格屠夫之称的 DeepSeek 来炸一回场了……
现在通过 DeepSeek 官网或 SophNet 等一些第三方 API 算力平台都能用到最新的 DeepSeek-V4 模型了。在经过超长的等待期后,这次 V4 似乎不单单只是参数上的常规升级,它似乎又打算把 AI 的训练方法和架构重新定义一遍。还有更炸裂的,就是那个 百万 token 上下文。

百万字,换算成中文,能吞下约 75 万字,相当于能一口气啃下完整的《三体全集》三部曲!而且官方明说了:从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。 不是限量内测,不是高级付费功能,是你随便开个聊天窗,随便调个 API,它天生就能记住这么多。
以前我们用 AI 聊天、写代码,本质上是在跟一个“健忘的实习生”对话,聊多了它就忘了前面说啥。你得不停地把重要信息塞进 Prompt 里,或者让它自己“回忆”。现在,这个实习生的记忆力突然从金鱼变成了大象。你可以把整个代码库、整份研究报告、整个任务背景一股脑儿丢给它,它都能接着。
这意味着,那些需要长期记忆、复杂规划的 Agent 任务,终于可以踏实放心地长时间跑了,不用再担心“上下文超限请缩减输入”这种烦人提示;以及跑着跑着就忘记前面的要求等情况了。
这次 DeepSeek 一次性推出了两款模型,按大小分为两个版本,分工明确:
DeepSeek-V4-Pro:性能旗舰,总参数量达 1.6T,但每次激活只有 49B 参数干活(MoE 架构的精髓)。它瞄准的是 比肩顶级闭源模型。
DeepSeek-V4-Flash:更快捷高效的经济之选。总参数 284B,激活参数 13B。
为什么敢把百万上下文当作“标配”?过去很多模型宣传 1M 上下文,但实际用起来要么贵得要死,要么偷偷降级。因为传统注意力机制的计算量随序列长度平方增长,上下文一长,算力和显存开销就爆炸。

DeepSeek-V4 在架构层面做了大刀阔斧的创新,核心是全新的混合注意力机制。简单说,它不再让模型“平等地”看待每一个 token,而是学会了“挑重点看”。
它引入了压缩稀疏注意力 (CSA) 和重压缩注意力 (HCA),结合 DeepSeek 稀疏注意力 (DSA)。比如 CSA 会把每 m 个 token 压缩成一条摘要,模型先快速浏览这些摘要挑出最相关的几条,再深入计算,同时用一个滑动窗口抓住眼前的局部细节。这就像你读一本厚书,不会逐字背,而是每几页记一个要点,回忆时先翻要点,再回原文细看。
这意味着,同样的显卡和显存,现在能处理的请求量、支持的并发用户数,接近翻了十倍!这才是把长上下文从“营销噱头”变成“工程现实”的根本。
性能追上来,价格怎么样?DeepSeek 果然不负“价格屠夫”之名,这次定价简直让人怀疑他们是不是在倒贴。
| 模型 | 输入 (缓存命中) | 输入 (缓存未命中) | 输出 | 上下文 |
|---|---|---|---|---|
| V4 Flash | 0.2 元 / M tokens | 1 元 / M tokens | 2 元 / M tokens | 1M |
| V4 Pro | 1 元 / M tokens | 12 元 / M tokens | 24 元 / M tokens | 1M |
横向对比业界(换算为美元,按常见 3:1 输入输出混合费率估算):
| 模型 | 每百万 tokens 综合成本 (USD) | 相对 V4-Pro |
|---|---|---|
| DeepSeek V4-Flash | ~$0.21 | 0.1倍 |
| DeepSeek V4-Pro | ~$2.08 | 1倍 |
| Gemini 3.1 Pro | ~$4.50 | 2.2倍 |
| GPT-5.4 | ~$5.63 | 2.7倍 |
| Claude Opus 4.6/4.7 | ~$10.00 | 4.8倍 |
| GPT-5.5 (同日发布) | ~$11.25 | 5.4倍 |
这差价,看得我下巴都惊掉了!V4-Pro 的输出价格只有 GPT-5.5 的 1/9!用五分之一的价钱,就能买到接近 Opus 4.6 非思考模式的体验。对于做 Agent 产品、需要大量调用 API 的开发者来说,这意味着月账单可能直接从“烧钱”变成“能跑出正毛利”。这功能太卷了,真的卷得太狠了!
这次 V4 特别强调了 Agent 能力的专项优化。官方表示,模型已针对 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品进行了适配和优化,在代码任务、文档生成等方面都有提升。
这点我感触很深。Agent 工具概念很性感,但跑起来太烧钱了,多轮规划、反复修正,token 消耗飞快。更让人不安的是,最近一些闭源厂商开始限制用户使用第三方 Agent 工具接入他们的 API,甚至出现偷偷封号的情况。
这种不确定性才是最伤人的——你花了钱,建好了工作流,却不知道哪天会被“断供”。所以, DeepSeek 坚定走开源路线,真的给了开发者巨大的安全感。模型开源,部署自由, API 多家云厂商都能提供,主动权在你手里。对于整个 Agent 生态来说,这无疑是实打实的利好。智能体终于可以便宜大碗、踏踏实实地跑起来了。

除了性能价格,这次 V4 还有一个更值得关注的深远变化:英伟达不再是唯一选项。DeepSeek 在技术报告中验证了模型在 NVIDIA GPU 和华为 Ascend NPU(昇腾)平台上的运行。而且,这次早期访问权限独家开放给了国产芯片厂商。华为昇腾超节点系列产品也宣布全面支持。
这意味着,国产顶级开源大模型,在“去英伟达化”上迈出了坚实的一步。算法是自己的,代码是开源的,现在芯片也可以是国产的。这不仅仅是技术适配,更是在撬动整个算力产业链的格局。黄仁勋此前在访谈中也提到,如果 DeepSeek 新模型在华为平台首发,对美国将是“可怕的结果”。现在,这一天正在成为现实。这对于国产算力生态是一针强心剂,也会倒逼其他国产芯片厂商加速适配。
说了这么多,怎么体验这个“卷王”?
base_url 即可。model 参数改为 deepseek-v4-pro 或 deepseek-v4-flash。reasoning_effort 参数设置思考强度为 max。deepseek-chat 和 deepseek-reasoner 将于 2026年7月24日 停止使用。当前它们分别指向 V4-Flash 的非思考与思考模式,请尽快迁移。DeepSeek-V4 的到来,不止是简单的模型升级。它用架构创新证明了:超长上下文不必依赖暴力算力;它用开源和定价证明了:高性能 AI 可以更普惠、更开放;它用国产芯片适配证明了:生态的主动权可以掌握在自己手里。
对普通用户来说,这是体验的跃升;对开发者来说,可能是成本结构的变化和新的机会窗口;对整个行业来说,这是在推动 AI 真正走向“可用、便宜、开放”。
DeepSeek 依然秉持着长期主义的理念,在尝试与思考中踏实前行。这种直接先把能力放出来,让所有人用起来,让生态自然生长的打法,我觉得,才是真正推动行业往前走的方式。
/ 关注 “异次元软件世界” 微信公众号,获取最新软件推送 /
如本文“对您有用”,欢迎随意打赏异次元,让我们坚持创作!
赞赏一杯咖啡
异次元软件世界、iPcFun.com 网站创始人。
本来名字很酷,但很无辜地被叫成小X,瞬间被萌化了。据说爱软件,爱网络,爱游戏,爱数码,爱科技,各种控,各种宅,不纠结会死星人,不折腾会死星人。此人属虚构,如有雷同,纯属被抄袭……
本文作者