Claude 4.5 来了,但我更关心的是它没说的那部分

昨天早上醒来刷手机,看到 Claude 4.5 发布的消息。


说实话,我的第一反应不是"终于来了",而是"这次又藏着什么没说"。


Anthropic 的官方博客写得很漂亮——性能提升 30%,推理速度加快,成本降低 15%。数据很漂亮,对比图表也很专业。但翻完整篇文章,你会发现一个有趣的现象:它几乎没提任何技术细节


训练数据从哪来?参数规模多少?用了什么新的架构设计?这些核心信息,一概没说。


我个人的感受是,这种"只说结果不说过程"的发布方式,已经成为闭源大模型的标配了。OpenAI 是这样,Anthropic 是这样,Google 的 Gemini 也是这样——给你一堆 benchmark 数据,但就是不告诉你"它是怎么做到的"。


这让我想起上周跟一个做 AI 研究的朋友聊天,他说了句挺扎心的话:"闭源大模型就像黑箱魔术,你看到的是兔子从帽子里变出来,但永远不知道帽子里到底有什么机关。"


但话说回来,闭源也有闭源的理由。


从商业角度看,技术细节是核心竞争力。如果 Anthropic 公开了训练数据和架构设计,竞争对手(包括开源社区)就能快速复现,那他们的商业护城河就没了。这在商业上是合理的。


但从技术演进的角度看,这种"黑箱竞争"其实挺浪费的。


每家都在做类似的探索,每家都在踩类似的坑,但因为互相保密,导致整个行业的技术积累效率很低。就像 5 个人同时解一道数学题,每个人都要从头推导一遍,而不是互相分享思路。


这让我想起 2017 年 Transformer 论文发表后的那段日子——Google 把整个架构开源了,结果整个 AI 社区在 3 年内实现了爆发式增长。BERT、GPT、T5……所有这些突破,都建立在 Transformer 这个公开的基础之上。


如果当时 Google 把 Transformer 闭源了,现在的 AI 会是什么样?可能 GPT 还在实验室里憋着,BERT 根本不会出现。


所以我对 Claude 4.5 的态度是——性能提升是好事,但别把这种"黑箱竞争"当成理所当然


闭源可以理解,但至少应该在技术路线图、安全性评估、社会影响这些层面更透明一点。不是所有东西都要开源,但至少要让用户和研究者知道"你用了什么数据""你的能力边界在哪""你可能存在什么风险"。


说真的,如果让我选,我更愿意用那些技术细节公开的模型——哪怕性能稍微差一点。因为至少我知道它是什么,能做什么,不能做什么。这种"可控性",在长期使用中比单纯的性能更重要。


当然,这只是我个人的倾向。对于普通用户来说,可能只关心"好不好用",不关心"怎么做到的"。


最后留个问题:你觉得大模型厂商应该公开核心技术细节,还是保持闭源保护商业利益?如果你是 Anthropic 的技术负责人,你会怎么选?


我猜很多人会说"当然开源好",但如果你站在商业公司的立场,答案可能没那么简单。