2026年4月24日DeepSeek V4预览版发布,这是DeepSeek(深度求索)新一代开源 MoE 大模型,全系标配 1M 超长上下文,主打高效长文本与 Agent 能力,分 Pro/Flash 双版本。
它支持原生 1M 上下文,可整本书/全代码库直接输入,免 RAG 切块。全面适配华为昇腾 950PR,框架从 CUDA 转向 CANN;单卡推理性能达英伟达 H20 的 2.87 倍,能耗降 40%。
这个消息引起了国内外的震动,我也接受了若干采访。对于这样的一个版本推出,国外媒体在震惊之余,认为它和美国的大模型还是有差距,但是支持原生长文、开源和框架的转移,确实有很震撼的效果。
中国的大模型做到这种程度,我现在关心的已经不是模型本身了,而是应用,而且我更关心价格,因为它决定了应用的广泛与否。
我们看一个人,一般而言,一群学生最后那个发展最好的人。不是那个一直考试考的最好,排名第一的,而是考试成绩中等,均衡发展的那个人。人工智能也是如此。
几年以来,人工智能炒作,美国特别热衷于芯片的性能排名、大模型的参数排名。当然我们也有一些人,引用这些排名,觉得中国大模型和美国还有一定的差距。
但是大模型做了干什么?大模型不是用来比参数的,也不是用来相互排名,做一个科学研究的,大模型最后会转化成为人工智能的基础能力,为人工智能的应用提供支撑的。中国的发展已经走到了世界的前列,以我的评价,其实是超过美国。
中国的大模型的训练框架已经从必须依靠英伟达的CUDA,转向了自己的框架。这意味着中国在这个领域已经逐渐可以掌控,用自己的框架和芯片,不必依靠英伟达的芯片,英伟达的芯片只是一个辅助。
中国的大模型是开源的,一方面,它给众多的中小企业提供了机会,同时又吸收了中小企业自己的研发能力,不断地提升这个模型的能力。
最为重要的是在性能并不弱的情况下,我们的大模型。API的价格要远远低于美国的价格,价格要比美国低50% 到80%。这意味着,使用这个模型的用户会大大节约成本。
我们自己正在开发居家机器人,调用Token进行推理,找到便宜的Token就是我们进行部署的重要工作。昨天在我们的AI群中,我看同事贴出了DeepSeek V4 Pro价格,我们的CEO感叹:真优惠。就是用户最真实的反馈。
Deepseek V4的性能已经达到世界的前列,那些参数的排名其实是没有多大价值,不会有用户真正的关注这些。而比同类产品便宜50% 以上的价格,这才是真正的杀伤力。性能已经不弱,价格非常便宜,这是最核心的竞争力。
如果去听学术界,他们的评价标准肯定还会是参数的排名,会觉得美国的人工智能还是领先的。其实我们做产业一看就知道,重度的中小企业如果需要用人工智能推理,已经非常强大的性能。开源大模型,非常有竞争力的价格,我们是不会去用别的模型的。
产品的性能已经到了这样的水平,基础的框架已经是自己的框架,服务的价格有非常强大的竞争力。这就是中国人工智能的底气,这也是未来中国人工智能最强大的竞争力。
对于整个社会而言,人工智能的本质是一个服务,而不是一个技术。服务就需要是基本性能保证,持续提供服务的能力,安全稳定,价格便宜。服务的能力是一个综合能力,不是某一项指标。
某一次考试或几次考试第一的那个同学。最后一生未必是最成功的。那个成绩中等,发展均衡的同学,很可能最后是胜出的那个人。人工智能也是同样的情况,最后胜出的一定是实力均衡,综合实力强大的服务体系,其实今天不仅是中国的企业要用我们自己的大模型,美国人工智能企业也想来用中国的大模型了。
性能不差,服务很好,最重要的,价格便宜,这个谁能挡得住呢?当然我也知道,有人不服气说美国的大模型也可以降价,那你就让它降价呀?