爱吱声

标题: 千呼万唤始出来---DeepSeek V4 预览版release [打印本页]

作者: 大黑蚊子    时间: 2026-4-24 14:44
标题: 千呼万唤始出来---DeepSeek V4 预览版release
以下是DeepSeek V4自己写的,我会把自己的吐槽加在里面:
+ f2 _) f3 u, \7 h5 X+ v0 M1 s: j* u4 V1 ~: l; c

8 D7 L/ _5 |& z- H5 b( z2026年4月24日,DeepSeek正式发布全新系列模型DeepSeek-V4预览版并同步开源。作为继R1发布十五个月后的重大更新,V4不仅以百万级上下文窗口重新定义了“长文本”的工程边界,更凭借一套几乎重塑了注意力机制的技术架构,向全球AI界展示了效率至上的突围路径。3 z4 ^4 W  @* T3 @% o( w

( I) P/ @! D, @: R5 @( m6 `一、模型定位与版本体系1 S* m  k+ z2 K) w& v, |/ @0 V
$ {! l$ |9 _4 Q2 B) M! l) _7 |
DeepSeek-V4按参数规模分为Pro与Flash两个版本,精准匹配不同场景需求。Pro版总参数量1.6万亿,每次推理激活约490亿参数;Flash版总参数量2,840亿,激活仅约130亿参数。两款模型均支持1M token超长上下文,预训练数据量分别达到33T和32T tokens,较V3.2的14.8T翻了一倍以上。这一设计延续了DeepSeek效率优先的哲学——尽管总参数庞大,但每个token仅激活少量参数,使推理成本能保持合理水平。
1 U: m1 y: \  i; z6 o" }3 D( y===
5 @7 D2 c  E' @Pro版本看这个样子,没有4台8卡H200是跑不动全量满血版的,毛估估硬件成本1000万人民币...
1 z: {9 N0 B3 u2 Y* j8 A" ?, u不过Flash版本估计一台就能跑得动,而且看样子跟之前的R1 671B相比效率还更高,算是有效保护了客户的硬件投资+ E3 S: H9 x' A* ?: Y* B
===
& k' u: S5 E; h% ~3 h/ ]二、架构创新:重新定义注意力机制
; N. C# ~2 [/ W3 i3 v/ J. A
6 g! z/ z) h2 v* n, H" M3 jV4最核心的架构改动是一套分层的混合注意力机制,从根本上解决了长文本场景下计算量平方级爆炸的难题。 传统Transformer在序列长度增加时,注意力计算量和KV缓存负担呈平方级增长,百万token往往只停留在论文数字中。DeepSeek的方案是设计两个互补模块——压缩稀疏注意力(CSA)和高度压缩注意力(HCA),在各层之间交替使用。7 n9 E/ {! p7 ^$ W+ V; x
3 W$ z, X) S. v; C# H$ r8 ^" `% W
CSA先将每4个token的KV缓存压缩成1个条目,再通过Lightning Indexer进行Top-k筛选(Pro版选取1024个最相关块),仅对筛选出的压缩块及滑动窗口内的128个原始token做注意力计算;HCA则更为激进,直接将每128个token压缩为1个条目并保持稠密注意力。在100万token上下文下,V4-Pro的单token推理计算量仅为V3.2的27%,KV缓存仅占10%;V4-Flash更极端,计算量仅10%,缓存仅7%。这意味着同样的硬件可以处理数倍乃至十倍的请求量,长上下文正从奢侈品变为日用品。
6 F2 L. Q9 N/ C5 i% [4 E$ o- f( g2 X: X. ]
===
- c- o2 G! l" e8 ~! A& w已经用上了1M的context,确实很爽,直接踢飞了之前的128K上下文切割模块
" S3 C* }) h6 w* B/ h# G5 ]0 M我感觉这次不仅是更长的上下文,在IO端的效率也很惊人
; l7 w- e" F6 q) D===4 m9 o/ u9 G& b3 \% K* L+ i6 N( d
三、性能表现:全面对标顶级闭源模型
) Z- O/ z1 n4 ?. c5 p! s" K. C
) B# |0 W; Y# u& V在Agent能力、世界知识和推理性能三大维度上,DeepSeek-V4均实现了国内与开源领域的全面领先。Agentic Coding评测中,V4-Pro达到当前开源模型最佳水平,整体使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。在数学、STEM和竞赛型代码评测中,V4-Pro超越所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。世界知识方面则大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。. b6 G, X) M  q- u6 e) D
8 u% U8 x& j7 P- D. r
值得关注的是,V4-Pro-Max版本在Codeforces编程竞赛中取得3206分,超越GPT-5.4的3168分;LiveCodeBench得分93.5,为全榜最高。而Flash版在简单任务上性能与Pro版旗鼓相当,但在高难度任务上仍有差距。" l3 r0 a/ |4 {. [$ z( k. _
===
! E2 N# s7 D+ b2 D0 F这个我不做评价,各种测试刷分一回事儿,干活是另一回事儿
" r5 }. F2 `7 n% W* u是骡子是马拿出来溜溜再说* x* n; w% B7 W/ ]
如果DS V4能够超出Sonnet 4.5,接近达到Ppus 4.6的水平,那基本上可以认为很实用了
# U/ {, l2 [3 J$ N===
5 u0 _9 G) V' r4 _# w四、Agent专项优化与生态落地3 S. z, B. N: S. N/ P* p
$ F# K) ?! W7 N
DeepSeek专门针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品进行了深度适配和优化,在代码任务、文档生成等方面均有实质提升。V4模型已全面部署于公司内部研发流程,成为主力Agentic Coding工具。两款模型均支持非思考与思考两种模式,复杂Agent场景推荐使用思考模式并将推理强度设为max。
% C1 J8 ^# R" b7 H===
- z6 d$ t! G1 r0 @待测
1 l4 M$ k7 t8 `% T. k===
& g4 f7 ], [, a5 s2 H6 k五、技术突围与战略意义
+ q, W; f  M% t9 M3 @1 j# C
- s& w5 q7 f+ H( L$ xV4的发布标志着大模型竞争正从单纯“堆参数”转向效率驱动的下一赛道,注意力机制的根本改造为超长上下文模型提供了可复用的工程范式。同时,V4从设计之初就深度适配国产算力,将与华为昇腾的合作推至“原生”水平,预计下半年昇腾950超节点批量上市后,Pro版服务价格将大幅下调,进一步降低百万级上下文的使用门槛。价格方面,Flash版输入每百万token仅0.2元,输出2元,依然保持了DeepSeek“价格屠夫”的一贯风格。7 ^4 F9 V4 L( }! o* S
===
7 y: p+ C& u% `/ V) ?2 E# l试了下,v4 pro确实很贵,目测起码比之前的任务贵5倍以上
, E- j- Z% q5 C% _但是这波宣发最牛的还是全面支持国产芯片,除了DeepSeek自己说的华为昇腾950超节点,寒武纪也已经官宣Day0 适配,估计最起码提供推理服务的硬件会逐渐的赶上来。, F4 Y5 ^, o  o: p  i& K
===
8 F2 G/ Z' z) q3 @3 g, s/ T5 n6 v; b/ o  ?( N8 j0 w
作为全球首个在国产算力底座上完成训练与推理的万亿参数级模型,DeepSeek-V4不仅是一次产品迭代,更是一场从底层架构到生态话语权的系统性突围——当西方模型还在比拼参数规模之时,这支来自中国的团队已悄然开辟了效率普惠的全新赛道。4 K3 L6 E" j- @

作者: 五月    时间: 2026-4-24 16:19
! H( z, P% W2 c: i
坐等普惠。。。
6 i3 n: ~+ B, [' q
7 t: H- {2 `1 Z2 R: @* s: }4 G
作者: 大黑蚊子    时间: 2026-4-24 17:15
五月 发表于 2026-4-24 16:193 X  i( R( F6 n9 c8 ]% {! d/ N
坐等普惠。。。
) }( ]% L# e* G* z5 [% x- d. Z9 u3 [* D
实际用了下Pro的价格其实也还好,贵确实贵了点但是效果比V3.2的时候好很多
3 x8 s+ R/ c' A  T% O$ r估计下半年950集群上线多了应该会便宜不少,起码打个3折
6 U: m4 u: K2 {( a+ f  Y# }4 G===6 M5 g. p) ]" Y$ q0 |4 Z# c: q  W
Kimi最近发了个卫星,他们可以搞Prefill/Decode分离,且能够提升效率。
0 c3 e6 x- \* ?' N, |( R& I0 M, t
  p: S& V4 Q: d这么搞的话,即使是万卡级别的部署,集群的跨数据中心带宽需求也就在 Tbps 量级,现代数据中心完全能承载。4 J3 g& U% E: K0 f: R+ H

3 B' i% s, b8 y; ^5 M这意味着企业可以在算力/能源便宜的地方(比如新疆、云南)部署 Prefill 集群,在离用户近的地方(北上广深)部署 Decode 集群,进一步降低Token成本。
作者: 马鹿    时间: 2026-4-24 20:25
DeepSeek V4 这是Android vs iOS。# ~3 Q1 \1 e2 @" [! \1 e
! |; w1 M$ n! I, d; \* o

作者: 大黑蚊子    时间: 2026-4-24 22:18
马鹿 发表于 2026-4-24 20:256 u7 _( I+ t: c. ~
DeepSeek V4 这是Android vs iOS。

3 S# R* O+ C8 d( R6 R1 g也不能这么说吧9 @$ s" V& S8 t" I
iOS其实是最开源的闭源系统,Android是最封闭的开源系统
+ p0 J2 W. n% S  x& N. UAndroid kernel大家都能用,但是GMS没有的话,你看华为就是举步维艰
作者: 马鹿    时间: 2026-4-24 22:47
大黑蚊子 发表于 2026-4-24 09:18
2 f( K1 {1 Z; {也不能这么说吧6 _' K& Z# M7 Z9 K, ^4 x/ S
iOS其实是最开源的闭源系统,Android是最封闭的开源系统0 Y) W7 F8 D9 l2 @3 D0 s
Android kernel大家都能用,但是 ...
' r2 K9 J% R1 a% _- C
我没研究过手机的系统。) l! x% U1 _9 D/ ]+ C7 d6 y2 V

5 [, ]7 k& _8 f. w5 {我觉得长期看的话,Deepseek 架构&算法 + 华为芯片&平台 可以分至少25%的市场, 50%归英伟达,另外25%给其他。当然得看欧洲和世界其他地方怎么想的。
作者: 三力思    时间: 2026-4-25 02:57
马鹿 发表于 2026-4-24 22:47
3 z6 ~& r) f6 W0 u9 h我没研究过手机的系统。# c5 A) ?- E' {* z' o, `
6 E- S( p! L* w/ g
我觉得长期看的话,Deepseek 架构&算法 + 华为芯片&平台 可以分至少25%的市场, ...

, x; x8 c2 v6 x, K( ]1 J开源迫使对手进步啊,不然美国公司很快就会组成行业垄断组织,和苹果那样挤牙膏一样的更新了。
作者: 马鹿    时间: 2026-4-25 03:32
三力思 发表于 2026-4-24 13:57
. ^; B$ f2 O5 C开源迫使对手进步啊,不然美国公司很快就会组成行业垄断组织,和苹果那样挤牙膏一样的更新了。 ...
# x. z. |6 K& I
本来中国很多人包括ld层都是买为主, 直到被迫营业自己造, 长期看, 这是好事
作者: leekai    时间: 2026-4-25 21:32
R1出来后短期打压了NVIDIA股价,因为算力需求小了;但长期利好NVIDIA,因为越来越多的个人和单位想尝鲜导致需求大增,甚至开始搞本地部署,需求又增加一波;但这次V4直接优先适配华为,算是对NVIDIA釜底抽薪,真动摇了CUDA的根本,所以黄皮衣真的急了。
作者: 大黑蚊子    时间: 2026-4-25 23:21
Update:
1 c$ {- `7 ?5 G; l9 C4 S& Q2 N, X5 E, }1 d0 {. u' k: x
DeepSeek V4 Pro限时特价2.5折, 直接脚踝斩了
( k. i, p' b8 {; g0 X
, _0 T5 O2 J! f# O& mDS:我便宜,我不怕封锁,我还有原生1M上下文
作者: 大黑蚊子    时间: 2026-4-28 10:59
leekai 发表于 2026-4-25 21:32
6 o5 i# z6 j2 u" NR1出来后短期打压了NVIDIA股价,因为算力需求小了;但长期利好NVIDIA,因为越来越多的个人和单位想尝鲜导致 ...
  O. y" z* r/ F! K3 S9 N* ^
不能这么说
  O0 O& y" a' l: ~  q3 Y从目前的情况来看,v4训练还是用NVDA的卡,通用且环境友好5 l3 _! P$ ~2 B2 D% w
国内几家大厂包括百度、昆仑、寒武纪、华为都能够做推理的工作,也就是说可以做API服务,完全基于国产芯片做训练还不太行
# j6 a5 F5 i7 P) h' Q9 [9 P但是AI目前体现出来的商业模式里,推理的路径最清晰




欢迎光临 爱吱声 (http://aswetalk.net/bbs/) Powered by Discuz! X3.2