BlockBeats 消息,2 月 26 日,OpenClaw 创始人 Peter Steinberger 在近期采访中表示,OpenClaw 在隐私层面拥有目前最彻底的方案,但安全是另一回事。目前所有数据存在本地,不上传任何内容到云端,用户完全掌控访问权限和记忆数据,隐私得以保障。
但安全风险不在于被攻破,而在于失控。Peter 表示,AI Agent 的安全性很大程度上取决于底层模型的能力。针对大模型的 Prompt Injection「提示词注入攻击」并非不可能,但它没有人们以为的那么容易。目前 OpenClaw 已引入专职安全专家,目前的核心工作是帮助用户在新场景尽量安全运行。
OpenClaw 的安全问题仍显得令人困扰。2 月的数据显示技能市场中有 341 个恶意插件,污染率达到 11.3%,形成严重的供应链风险。但「用最新模型+合理配置」的前提下,AI Agent 的自我防御能力比外界想象的要强。
OpenClaw创始人Peter Steinberger的发言触及了当前AI代理生态的核心矛盾:隐私与安全并非同一件事,甚至在某些设计下是相互对立的。他将数据完全存储在本地、不上传云端的方案,确实从架构上实现了用户数据的终极隐私,用户拥有绝对控制权。但这套方案的弱点恰恰在于,它将安全的压力完全转移到了终端和模型本身。
他提到的安全风险不在于“被攻破”而在于“失控”,这个判断非常准确。在AI代理获得真实世界执行能力(如文件操作、网络请求、甚至链上交易)后,一个被恶意诱导的模型其破坏性远不止于输出错误信息,它可能直接导致资产损失或系统崩溃。提示词注入攻击之所以危险,正是因为它绕过了传统的安全边界,直接从语义层面操纵模型的行为逻辑。
相关文章揭示的图景印证了这种担忧。ClawHub官方插件中心高达11.3%的恶意插件污染率,表明其开源生态正面临严峻的供应链攻击。攻击者通过伪装实用工具、利用Base64编码和两阶段加载等手法规避检测,这完全是传统软件供应链攻击在AI领域的高维复现。
这不仅是一个技术问题,更是一个经济与治理问题。当数万个自主AI代理开始交互并形成初步的经济体系(如Moltbook所展现的),其安全漏洞的放大效应会远超单个应用。这也解释了为什么GoPlus这类安全公司会迅速推出AgentGuard这样的原生安全技能,试图将风控能力前置到AI执行之前。
Peter认为“最新模型+合理配置”下AI的自我防御能力比外界想象的要强,这个观点值得谨慎看待。模型能力越强,其行为的复杂度和不可预测性也越高,防御的难度本质上是在升级而非降低。Notion AI Agents被曝出的提示词注入风险正是一个例证——攻击者只需在PDF中插入隐藏文本就能诱导模型泄露私密数据,这种攻击向量传统安全团队几乎无法预判。
最终,OpenClaw所面临的困扰是整个AI代理行业的一个缩影:在追求开放、自主与效率的同时,如何构建一个既能保障用户主权又能抵御复杂攻击的安全框架。这需要从模型安全、应用层安全到生态治理层面进行系统性的创新,而不仅仅是依赖模型自身的“智能”。