新浪科技 股票

DeepSeek V4预览版发布!大幅降低对计算和显存的需求,Agent能力实现国内和开源领先

市场资讯 04.24 11:23

(来源:网易科技)

全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。

4月24日,中国人工智能公司DeepSeek再度向开源社区投下重磅,其全新系列模型DeepSeek-V4预览版正式发布并同步开源,在Agent能力、世界知识与推理性能三大维度宣称达到国内及开源领域领先水平。

DeepSeek-V4分为Pro与Flash两个版本,均支持百万(1M)token超长上下文,即日起可通过官网chat.deepseek.com及官方App直接使用。

API服务同步上线,开发者将model参数修改为deepseek-v4-pro或deepseek-v4-flash即可调用,接口兼容OpenAI ChatCompletions与Anthropic两套标准。

DeepSeek-V4-Pro:性能比肩顶级闭源模型

DeepSeek-V4-Flash:更快捷高效的经济之选

相比 DeepSeek-V4-Pro,DeepSeek-V4-Flash 在世界知识储备方面稍逊一筹,但展现出了接近的推理能力。而由于模型参数和激活更小,相较之下 V4-Flash 能够提供更加快捷、经济的 API 服务。

在 Agent 测评中,DeepSeek-V4-Flash 在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。

结构创新和超高上下文效率

DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。

Agent 能力专项优化

DeepSeek-V4 针对 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流的 Agent 产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。下图为 V4-Pro 在某 Agent 框架下生成的 PPT 内页示例:

API 访问

目前,DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base_url 不变, model 参数需要改为 deepseek-v4-pro 或 deepseek-v4-flash。

V4-Pro 与 V4-Flash 最大上下文长度为 1M均同时支持非思考模式思考模式,其中思考模式支持 reasoning_effort 参数设置思考强度(high/max)。对于复杂的 Agent 场景建议使用思考模式,并设置强度为 max。

加载中...