Manus开放注册了,我试了三天后的真实感受
还记得 Manus 刚火那会儿吗?
邀请码炒到 10 万块,社交媒体上全是「求码」的帖子,科技媒体铺天盖地报道「中国团队做出全球首个通用 AI 智能体」。我当时也写了篇文章分析这事儿,但说实话——没码,没体验,只能看别人的测评视频云评价。
现在好了,Manus 全面开放注册,我第一时间注册了账号,连着用了三天。今天来聊聊真实感受。
先说结论:能用了,但没想象中那么神。
什么场景好用?
我测试了大概 20 个任务,Manus 在以下几类场景表现确实不错:
第一类是信息整理。比如「帮我整理过去一周 AI 行业的重要新闻,按公司分类,每家公司不超过 3 条」。Manus 能自己打开网页搜索、筛选信息、整理成表格。这个过程它确实能自主完成,不需要我一步步指导。
第二类是简单数据处理。我扔给它一个 CSV 文件,让它「分析一下销售趋势,找出增长最快的三个品类」。它能写 Python 代码跑分析,然后给我结论。代码质量一般,但能用。
第三类是流程化任务。比如「帮我在 GitHub 上找 5 个开源的 RAG 项目,Star 数超过 1000,按更新时间排序」。这种目标明确、步骤清晰的任务,Manus 完成度挺高。
什么场景不行?
但说实话,失败的案例更多。
最典型的是需要深度理解业务逻辑的任务。我让 Manus「分析一下我们上个月的客服对话记录,找出用户投诉的主要痛点」。它确实能打开文件、跑一些关键词统计,但得出的结论很表面——「用户提到『慢』的次数很多」——这还用你说?
问题是,它理解不了「慢」在不同上下文里的具体含义。是页面加载慢?还是客服回复慢?还是物流慢?Manus 分不清楚。
还有一个问题是长任务容易断。我让它「帮我调研一下竞品 A 公司的产品功能,整理一份对比报告」,任务跑了 15 分钟后,它自己停了。没有报错,就是停了。我猜测是 token 限制或者超时,但用户侧完全不知道发生了什么。
和早期 Demo 的差距
记得 Manus 早期放出的 Demo 视频吗?那个「自动筛选简历、安排面试、发邮件」的演示,当时看确实惊艳。
但实际用下来,我发现那些 Demo 都有个共同点:任务边界很清晰,输入输出很确定。
现实中的工作很少是这样的。大部分任务都是模糊的、需要反复沟通的、中间随时可能变需求的。Manus 在这种「真实世界复杂度」面前,表现就没那么稳了。
这不是 Manus 的问题,是所有「通用 AI 智能体」共同的问题。
通用智能体是个伪命题吗?
用了三天 Manus,我一直在想一个问题:「通用 AI 智能体」这个概念本身是不是被高估了?
我的看法是:不是伪命题,但短期内别指望它能替代人类做复杂工作。
现在的 Manus 更像是一个「增强版的自动化工具」——比传统 RPA 灵活,能处理一些模糊指令,但离「像人一样理解和执行任意任务」还差得远。
真正好用的场景,还是那些目标明确、步骤可分解、容错率高的任务。比如信息收集、简单数据处理、流程化操作。
值不值得用?
如果你之前因为没码而好奇 Manus,现在可以去试试了。免费额度够你玩一阵子,至少能形成自己的判断。
但别抱太高期望。它不是「AI 员工」,更像是「一个有点聪明但不太靠谱的实习生」——能帮你干点杂活,但重要的事还是得自己来。
林锐的个人感受是:Manus 代表了 AI 智能体的一个方向,但这个方向的终点可能不是「一个什么都能干的通用智能体」,而是「一堆专门干某件事的智能体,通过某种方式协同工作」。
你觉得呢?你试过 Manus 了吗?体验如何?