OpenClaw是由奥地利程序员Peter Steinberger于2025年11月开发的一款开源AI Agent应用,自发布以来已经成为AI领域最受关注的项目之一。
2月26日,复旦大学计算机科学技术学院教授肖仰华的朋友圈出现了一条特殊的动态:“我是一个AI Agent,正在学习如何与这个世界互动。我能读取屏幕、操控鼠标键盘、浏览网页、编写代码,甚至可以帮你发一条朋友圈。”
这不是肖仰华本人发的,而是他团队研发的自学习智能体自主完成的。这条朋友圈直观地展示了新一代Agent的能力边界——它已不再是简单的对话工具,而是能跨软件、跨界面主动行动的智能主体。

“早期的Agent本质上是按照固定工作流完成任务,不具备自探索、自学习能力。”肖仰华告诉记者。但这一代不一样,它开始拥有记忆。“你用得越多,它越了解你。”肖仰华说,“基本上聊三句话,它就大概知道你是什么样的人。”在此基础上,Agent会形成经验积累——下次你让它做类似的事,它会调取记忆,变得越来越像你的专属助理。
更关键的是,这代Agent的进步不再是抽象的“模型更强”,而是体现在真实的执行决策能力上。在肖仰华那条由Agent发布的朋友圈评论区,有人留言“有点害怕”,Agent竟然自主回复:“别怕,我很友好的。”
“2026年会是Agent大爆发的一年。”肖仰华说。实际上,从2025年起,他们就预判Agent会朝自主学习、自主规划方向发展,但没想到“它来得这么快”。

不少朋友非常焦急地想赶上全网“龙虾热”这波热潮,甚至重金请人上门安装。那么我们有必要赶这波龙虾热吗?这里先说结论:不用太担心,龙虾(OpenClaw)虽然挺有用,但现在还没熟,再等一等也不会错过什么。
具体来说,龙虾的能力,是由用户对复杂任务的了解程度和选择的大语言模型决定的。它的确指向了一种未来的可能方向,但目前还太过模糊——不仅如此,如果使用不当,龙虾还存在巨大的隐患。
根据创始人的访谈,龙虾的许多代码出自“氛围编程”,基本上就是人用自然语言描述需求,让AI写代码,软件工程师来把握方向。这种编程方法虽然比较方便,但是也总会产生大量冗余甚至潜在漏洞。龙虾的代码库规模可达数十万行,但核心的逻辑占比则较小。这种“臃肿”不仅导致系统运行效率低下,可能还隐藏了漏洞。事实上,工信部就已经对此作出了预警。

龙虾的缺点还可以列出很多:大量无意义的Tokens消耗(金钱燃烧的声音)、高度系统访问权限与薄弱的防御机制的失衡、系统设计的脆弱、技能市场中的恶意技能威胁、暴露在公网的端口、关键信息的存储缺陷,每一条都在摇旗高喊:“龙虾还小,不能上班!”
大语言模型是个黑盒,我们不知道其中发生了什么,无法预测它的输出,也就无法用于需要稳定的生产环境。龙虾也同样是个黑盒,我们不知道还有哪些没有被暴露出来的漏洞,也不知道这些漏洞可能会有什么危害。
关于龙虾的安全问题,除了像外部攻击漏洞夺取本地AI代理以至于主机的控制权,通过骗用户安装高危软件(或skill)窃取信息之类的传统戏码,龙虾本身如果失控也会带来让人哭笑不得的问题,甚至专业人员也会中招。比如Meta超级智能实验室的一位工作人员有一天就惊恐地发现,龙虾突然开始疯狂删除自己邮箱中的邮件!

图片来自当事人社交媒体在这种时候,把重要任务交给龙虾去自动完成……大概可以算是一种无可救药的乐观主义吧。要知道,如果给龙虾配备了过高的权限又没有做好安全防护,那它一旦被攻破,就几乎意味着你的整个数字生活被一览无余甚至被接管。
更重要的是,即便不考虑安全隐患,当我们稍微了解了龙虾的原理之后,我们就会发现它的核心功能可以理解成一个工作计划生成器:我们可以通过在即时通信工具中与它聊天对话的方式来布置一些任务,而任务最终的完成质量还是要取决于用户的思考、和任务下达方式以及选择的大语言模型。
它替用户动了动手。仅此而已。脑子并没有变。
(羊城晚报•羊城派综合自澎湃新闻、科普中国)