欢迎访问深圳市中小企业公共服务平台电子信息窗口

DeepSeek-V4预览版百万上下文成标配,华为昇腾首发适配国产算力

2026-04-24 来源:电子工程专辑
99

关键词: DeepSeek-V4 开源模型 超长上下文 华为昇腾

4月24日,中国人工智能公司DeepSeek正式发布并开源全新系列模型DeepSeek-V4预览版。 

该系列包含Pro与Flash两个版本,均支持百万字(1M)超长上下文。官方表示,V4在Agent能力、世界知识和推理性能三大维度上达到国内与开源领域领先水平,其中Pro版本性能可比肩世界顶级闭源模型。

双版本矩阵:旗舰对标顶尖,Flash普惠经济

DeepSeek-V4采用MoE(混合专家)架构,按性能与成本划分为两个版本。

DeepSeek-V4-Pro:总参数1.6万亿,激活参数490亿,预训练数据33万亿tokens。官方定位其为性能比肩顶级闭源模型的旗舰版本。在Agentic Coding评测中,V4-Pro达到当前开源模型最佳水平,内部评测反馈使用体验优于Anthropic Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距。在世界知识测评中,V4-Pro大幅领先其他开源模型,仅稍逊于Google Gemini-Pro-3.1;在数学、STEM及竞赛型代码评测中,其超越所有已公开评测的开源模型,取得比肩世界顶级闭源模型的成绩。官方技术报告指出,V4-Pro-Max(最大推理能力模式)在标准推理基准上总体约落后前沿闭源模型3–6个月。

DeepSeek-V4-Flash:总参数2840亿,激活参数130亿,预训练数据32万亿tokens。该版本定位为更快捷、经济的轻量化选项,世界知识储备略逊于Pro,但推理能力接近。由于参数与激活规模更小,其API服务在速度与成本上具备明显优势。在Agent评测中,Flash在简单任务上与Pro表现相当,高难度任务仍有差距。

1M上下文从“高端功能”变为“基础设施”

DeepSeek-V4在底层架构上实现了重大创新。模型采用全新的Token维度注意力压缩机制,结合自研DSA稀疏注意力技术(DeepSeek Sparse Attention),并引入CSA(Compressed Sparse Attention)与HCA(Heavily Compressed Attention)混合注意力架构。据官方技术报告披露,在1M token场景下,V4-Pro的单token推理FLOPs仅为前代V3.2的27%,KV缓存用量仅为10%。

这一架构创新的直接结果是:1M超长上下文将成为DeepSeek所有官方服务的标配。 一年前,百万级上下文还是少数闭源旗舰模型的专属能力;如今DeepSeek将其以开源形式普惠化,并同步开放API服务,开发者仅需修改model参数即可调用,接口兼容OpenAI ChatCompletions与Anthropic两套标准。

功能层面,两个版本均支持非思考模式与思考模式(可通过reasoning_effort参数设定high/max档位),并支持Json Output、Tool Calls、对话前缀续写等能力。此外,V4系列针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品进行了专项适配与优化。

华为昇腾首发,CANN生态迁移

业界长期关注DeepSeek-V4是否会使用国产算力。从官方发布信息来看,DeepSeek-V4明确与华为昇腾合作。 华为云MaaS模型即服务平台已为开发者提供免部署、一键调用DeepSeek-V4-Flash API的Tokens服务。昇腾CANN也于发布当日进行了DeepSeek V4在昇腾平台的首发直播。

据多家媒体报道,DeepSeek-V4将运行于华为昇腾950系列芯片,技术架构从英伟达CUDA生态向华为CANN框架进行底层迁移。DeepSeek官方在API定价页备注称:“受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅下调。”

这一消息直接刺激了国产AI芯片板块。发布当日,海光信息上涨6.77%,寒武纪涨超3%,中芯国际港股涨7.96%,华虹半导体港股涨12.20%,科创芯片ETF易方达涨2.87%。 据悉,寒武纪已基于vLLM推理框架完成对DeepSeek-V4的Day 0适配,适配代码已开源至GitHub社区。市场观点认为,V4等国产模型积极适配昇腾等国产AI算力芯片,有助于形成国内“模型—芯片—云”的AI商业闭环。

开源与低价并行,闭源模型承压

DeepSeek-V4以MIT许可证开源发布,模型权重已在Hugging Face、ModelScope平台开放,配套58页技术报告同步公开。

这一定价与开源策略,与几乎同期发布的OpenAI GPT-5.5形成鲜明反差——GPT-5.5 API定价为每百万输出token 30美元(约合人民币218元),而DeepSeek-V4-Pro输出定价为每百万token 24元人民币,Flash版本更是低至2元人民币。

海外开发者社区对此反应强烈。有网友评价称:“在24小时内发布了两个前沿模型,但商业模式完全相反。昨天GPT-5.5以30美元/百万输出token的价格推出,今天DeepSeek V4则以MIT许可发布。智能的成本底线刚刚崩塌,每一家AI产品公司都必须重新思考它们的利润结构。”

 

资本市场的反应同样直接。在DeepSeek-V4发布当日,港股大模型概念股智谱(02513.HK)跌超6.8%,Minimax(00100.HK)跌超4.6%,跌势在消息发布后明显扩大。

结语

DeepSeek-V4的发布,不仅是一次模型能力的迭代,更是一次对行业规则的重新定义:它将百万字长上下文从“旗舰专属”变为“基础设施”,将顶级推理能力以开源形式交付,并将国产算力纳入核心供应链。在OpenAI持续抬高闭源模型价格天花板的背景下,DeepSeek选择以“开源+极致性价比”的路线,迫使全球AI产业链重新审视成本结构与商业逻辑。

正如DeepSeek在发布文末所引用的《荀子》之言——“不诱于誉,不恐于诽,率道而行,端然正己”——这家中国AI公司正试图以长期主义的技术务实,推动大模型能力真正走向普惠。