被捧上神坛的MCP协议,现在连YC总裁都想跑路了

我第一次听说MCP协议的时候,是在2024年的11月。


当时看到Anthropic开源了这个东西,朋友圈一片欢呼——"AI时代的TCP/IP来了!"、"统一工具调用标准!"、"以后所有AI应用都能互联互通了!"


作为一个写过几年代码的老兵,我当时的第一反应是——先别吹。


不是泼冷水,是吃过太多"标准大一统"的亏了。


你看这些年,SOAP协议被REST击败了,WebSocket刚火就被各种私有协议蚕食,GraphQL也没能取代REST成为主流……技术标准这事儿,从来不是"技术最优"说了算的,而是生态、商业、政治多股力量博弈的结果。


MCP的问题在哪?


最近Perplexity联合创始人Denis Yarats和YC总裁Garry Tan公开"跳船",算是把这个盖子掀开了。


核心矛盾就一个——Token成本


简单来说,每次你让AI通过MCP去调一个工具,比如查个数据库、调个API,传输的数据量比你直接用SDK调用要大得多。为啥?因为MCP把每次交互都包装成了一个"对话",里面有系统提示词、有上下文、有schema描述……这些加起来,一个简单的工具调用可能就要消耗几百甚至几千个Token。


你要是做个原型demo,这无所谓。


但企业级场景里,一个业务流程可能涉及几十上百次工具调用。这Token成本乘以调用次数,就很可观了。


更骚的是,MCP的响应延迟也比原生SDK高。道理很简单——多了一层协议,就多了一次序列化和反序列化。这在强调实时性的场景里,是致命的。


所以Denis Yarats和Garry Tan的选择就很能理解了——用回API和CLI。


这让我想起一个观点:"最好的协议是没有协议"


你直接调SDK,没有中间商赚差价,性能最优,成本最低。但代价是什么?——每个工具都得单独对接,迁移成本极高。


MCP的逻辑是——牺牲一点性能和成本,换取互联互通的便利性。这在理论上是对的,但现实是,大部分公司的AI应用还没到需要"互联互通"的规模。


换句话说,MCP解决的是一个"大厂才有的问题",而大多数中小团队,还在用最原始的方式调用工具。


不过话说回来,MCP的愿景本身没错。


长远看,AI应用要真正爆发,标准化是必须的。就跟USB接口统一了外设生态一样,MCP的价值在于降低整个行业的协作成本。


问题只是——时机对不对,现在成熟不成熟。


我的判断是,MCP的方向是对的,但落地节奏被高估了。一年之内,它会是一个"有追求的大厂都在关注,但实际落地项目少之又少"的协议。真正的大规模采用,可能要等两到三年后,Token成本真正降下来,推理效率真正提上去。


到时候,MCP可能会成为类似HTTP的地位——每个人都用,但没人觉得它有多了不起。


但现在嘛……


先别急着All in。


手里有MCP相关股票的,建议逢高减仓。手底下有团队在推MCP方案的,建议先做POC验证ROI。别被那些"AI时代TCP/IP"的标题党带偏了节奏。