DeepSeek V4 要跑在华为芯片上了——国产 AI 全栈自主的里程碑?
这个消息我等了很久了。
DeepSeek V4——目前中国最强的开源大模型系列的下一代——据报道将运行在华为昇腾芯片上。如果消息属实,这是国产 AI 芯片赛道上最重量级的一次验证。
先说为什么这件事重要。
过去两年,中国 AI 公司在模型层面的进展是有目共睹的。DeepSeek、千问、智谱——这些模型在某些维度上已经能和 GPT、Claude 正面竞争。但大家心里都清楚一个隐忧:这些模型几乎都是在 NVIDIA A100/H100 上训练的。芯片这一层,命脉还捏在别人手里。
美国的出口管制像一把悬在头顶的剑——今天能买到的芯片,明天可能就买不到了。
所以 DeepSeek 选择在华为昇腾上跑 V4,不管是"被迫"还是"主动",战略意义是一样的:证明中国的 AI 全栈可以不依赖 NVIDIA。
从我之前研究过的资料看,华为昇腾 910B 和 NVIDIA A100 之间确实还有性能差距——大概在 20%-30% 左右。但这个差距在过去一年里已经明显缩小了。而且 DeepSeek 团队在训练效率优化上一直很强,他们在 V3 上就展示过用更少的算力训出更好模型的能力。
关键不是"华为芯片能不能追上 NVIDIA",而是"差距是否在可接受范围内"。如果用华为芯片训练 V4 只需要多花 20% 的时间,而模型效果不打折——那这笔账就是划算的。
当然也有质疑的声音。
有人说这是"为了自主可控而牺牲效率",是一种政治正确的技术选择。也有人担心芯片的稳定性——华为昇腾在大规模集群训练中的可靠性表现,目前还没有太多公开数据。
这些质疑不是没有道理。但从行业趋势看,多芯片适配已经是不可逆的方向。之前智谱用华为芯片训 GLM-5.1 达到了 Claude 94.6% 的性能,已经初步证明了可行性。DeepSeek 如果能在 V4 上重复甚至超越这个成绩,那就不是"可行"了,而是"成熟"。
说实话,从我个人的感受来看,这个事件最大的意义不在技术本身,而在于它打破了一种心理依赖。很长一段时间里,中国 AI 圈有一种不太说得出口的共识——"NVIDIA 不可替代"。每次聊到芯片就叹气,好像这是一个无解的问题。
但事实正在证明:不是无解,是在解。
如果 DeepSeek V4 在华为芯片上跑出来的效果足够好,那么其他中国 AI 公司也会加速转向国产芯片。这不仅仅是一个技术事件,可能是整个国产 AI 算力生态的拐点。
不过,在最终结果出来之前,我还是那句话:别急,先看数据。