#人工智能 继续屠杀全球 AI 模型:DeepSeek V4 API 价格公布,起步价仅每百万输入 0.2 元,这个价格可以直接屠杀全球各类模型甚至部分 API 中转站。模型能力上 V4 交付质量接近 Claude Opus 4.6 非思考模式,但仍然与思考模式存在差距,不过考虑到价格这是完全可以接受的。查看详情:https://ourl.co/112796
这个周五最热闹的事情莫过于深度求索终于发布 DeepSeek V4 模型,深度求索也在官方公众号里提供详细的评测信息,评测信息显示该模型交付质量接近 Claude Opus 4.6 非思考模式,但仍然与其思考模式存在差距。
然而在价格面前这种瑕疵完全可以忽略,因为该模型 API 调用价格起步才 0.2 元,这个价格可以直接屠杀全球各类模型乃至部分 API 中转站,对于预算有限的用户和开发者来说 DeepSeek V4 将带来更充足的调用额度。
V4 系列 API 调用价格:
- DeepSeek-V4-Flash:每百万缓存命中输入 0.2 元、每百万缓存未命中输入 1 元、每百万输出 2 元
- DeepSeek-V4-Pro:每百万缓存命中输入 1 元、每百万缓存未命中输入 12 元、每百万输出 24 元
- 注:Pro 模型价格高是因为当前算力资源有限,深度求索称下半年情况会改善
以上模型均同时支持最高 1M 上下文、最大输出 384K、支持思考模式与非思考模式、默认启用思考模式、支持输出为 JSON、支持对话前缀续写、支持 FIM 补全 (仅思考模式下支持)。
深度求索现在也同时提供 OpenAI 和 Anthropic 兼容端点格式,用户无需使用转换工具即可直接使用 DeepSeek 官方 API 地址进行调用,调用地址分别是:https://api.deepseek.com、https://api.deepseek.com/anthropic
新旧模型名称和弃用公告:
- 新模型:deepseek-v4-flash
- 新模型:deepseek-v4-pro
- 旧模型:deepseek-chat (将于 2026/07/24 弃用)
- 旧模型:deepseek-reasoner (将于 2026/07/24 弃用)
用户在调用以上模型时建议直接选择新模型,对于现有项目则建议用户重新配置模型,以免在旧模型弃用后忘记切换导致无法正常使用。出于兼容考虑,两款旧模型对应着 deepseek-v4-flash 的非思考模式和思考模式。
访问 DeepSeek API 平台:https://api-docs.deepseek.com/zh-cn/
