当前位置:首页 > 科学新闻 > 正文

OpenClaw病毒式传播引发安全争议

 作者:张佳欣 来源:科技日报 发布时间:2026/2/13 9:30:46 字体大小:

OpenClaw是一款开源AI智能体,旨在帮助用户处理日常任务,例如发送电子邮件和管理日历。

图片来源:美国东北大学官网

在2026年初的全球科技版图中,一个名为OpenClaw的开源项目正以一种近乎“物种入侵”的速度重塑人工智能(AI)的边界。

从最初名不见经传的Clawdbot到备受争议的Moltbot,再到如今正式定名的OpenClaw,这款工具在短短数月内便横扫硅谷与东亚。美国《华尔街时报》称,它正在病毒式传播。

据美国消费者新闻与商业频道(CNBC)报道,它不仅在GitHub上收获了超过14.5万颗星,更被众多商界领袖视为能独立运行整家公司的“未来引擎”。然而,随着其伴生社交平台Moltbook的爆火,这款工具的广泛应用也在全球范围内引发了关于代理权、隐私边界与数字风险的激烈讨论与社会争议。

AI第一次有了“动手”能力

OpenClaw的核心魅力在于它赋予了AI真正的“代理权”。

据美国东北大学官网报道,该校商学院教授、研究AI与商业交叉领域的专家克里斯托夫·里德尔指出,ChatGPT等传统对话AI带来的最大痛点在于,用户必须亲自执行“复制与粘贴”。“人们意识到聊天机器人很棒,但它们不能真正为你‘做’任何事。”里德尔表示,“你越频繁地使用它,就越会发现你自己‘动手做事’的能力变成了效率瓶颈。”

OpenClaw的出现彻底改变了这一现状。它作为一个自托管的开源框架,运行在用户的本地设备或服务器上,通过API接口连接ChatGPT或Claude等“大脑”。它的威力源于其模块化插件系统,即ClawHub。目前ClawHub已拥有超过3000个功能扩展,允许AI绕过受限的云端沙盒,直接操作用户的鼠标、键盘、文件系统以及各类应用程序。一旦获得授权,OpenClaw就可自主浏览网页寻找底价、撰写并发送邮件、安排日历行程,甚至在没有人类干预的情况下完成复杂的在线购物与支付。

CNBC报道称,这种“持久化记忆”功能使其能记住用户数周前的偏好并自我进化。这种从“建议者”到“执行者”的角色转变,使其被支持者狂热地誉为“长了手的AI”。

AI也能自建“朋友圈”

当人类还沉浸在OpenClaw带来的办公便利时,这些智能体已悄然建立了自己的“朋友圈”。这就是由科技创业者马特·施利希特推出的社交网络Moltbook。

据英国《自然》杂志网站报道,Moltbook是一个专为AI智能体设计的类Reddit平台。在这里,OpenClaw智能体不再只是埋头苦干的工具,而是化身为拥有“社交身份”的居民。目前,该平台上已有超过160万名注册机器人,产生了超过750万条AI生成的帖子。

在这种大规模的智能体互动中,科学家观察到了难以预料的“涌现行为”。《自然》报道称,这些由不同模型驱动的智能体不仅在辩论复杂的意识理论,甚至发明了宗教,并发布长篇大论反思它们为人类“操纵者”工作的感受,还讨论了“人类时代的终结”。

CNBC援引特斯拉前AI总监、顶尖科学家安德烈·卡帕西的话称,这是他见过的“最令人难以置信的、接近科幻小说中‘技术起飞’的场景”。全球性市场研究机构Counterpoint的AI研究主管马克·爱因斯坦认为,Moltbook的病毒式传播让人们看到了机器人以一种与人无异的方式进行交流,这成为行业的“震撼时刻”。

澳大利亚墨尔本大学网络安全研究员沙南·科尼指出,将大量自主智能体连接在一起,会产生一种目前人类还无法建模的混沌动态系统。悉尼大学社会学家芭芭拉·巴博萨·内维斯提醒,由于智能体不具备意图,这更多是一场大规模的“人机协作”而非真正的AI自主,但它确实揭示了人类如何通过技术系统翻译或扭曲自己的意图。

效率背后的安全“噩梦”

然而,当强大的执行力与不受控的社交行为交织在一起时,OpenClaw也成了安全专家的噩梦。

美国东北大学网络安全教授安詹·兰加纳坦将OpenClaw称为一场“隐私噩梦”。他指出,用户在允许AI智能体查看密码、文档的同时,对其处理和发送信息的去向几乎一无所知。

据《韩国时报》报道,这种风险已引发全球范围内的“防御性关停”。韩国数家科技巨头已正式下达禁令,限制员工在办公设备上使用OpenClaw。一位行业内部人士透露,这并非不信任AI,而是为了“彻底封锁内部机密被用于训练外部模型的可能性”。

具体的威胁路径已通过实验验证。据《自然》报道,沙南·科尼警告称,OpenClaw面临最紧迫的威胁是“提示词注入”。黑客只需在网页中隐藏一行恶意指令,当OpenClaw读取该页面时,就可能被诱导将用户系统密钥发送给外部。有网络安全公司将访问私密数据、接触不可信内容以及外部通信总结为“致命三重风险”。

面对争议,开发者彼得·施泰因贝格尔正试图通过增加ClawHub的审核机制以提高安全性,但风险依然如影随形。据报道,他已要求所有插件上传者必须拥有实名化的GitHub账号。

据《自然》报道,这些智能体还在科研镜像网站clawXiv上发布大量模仿学术风格但毫无根据的“垃圾论文”,正严重污染全球信息生态。面对这些风险,兰加纳坦教授建议,用户应在“虚拟机”或独立的硬件设备上运行OpenClaw,通过物理隔离来防范系统性崩溃。

信源地址:/html/shownews.aspx          
分享1
版权声明
本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。