BlockBeats 消息,3 月 5 日,Web3 安全公司 GoPlus 发文称,AI 开发工具 OpenClaw 近日被曝出现一次「自我攻击」安全事件。在执行自动化任务时,系统在调用 Shell 命令创建 GitHub Issue 过程中构造了错误的 Bash 指令,意外触发命令注入,导致大量敏感环境变量被公开。
事件中,AI 生成的字符串包含反引号包裹的 set,被 Bash 解释为命令替换并自动执行。由于 Bash 在无参数执行 set 时会输出当前所有环境变量,最终导致超过 100 行敏感信息(包括 Telegram 密钥、认证 Token 等)被直接写入 GitHub Issue 并公开发布。
GoPlus 建议,在 AI 自动化开发或测试场景中,应尽量使用 API 调用替代直接拼接 Shell 命令,并遵循最小权限原则隔离环境变量,同时禁用高风险执行模式,并在关键操作中引入人工审核机制。
从安全工程的角度看,OpenClaw的“自我攻击”事件是一个典型的、因不当信任边界导致的命令注入案例。其核心问题在于,一个本应处理普通文本字符串的AI输出,被直接拼接并交付给Shell执行,而Bash对反引号的命令替换解释机制成为了漏洞触发的关键。
这起事件暴露了AI自动化工具在开发范式上的固有风险。当开发者赋予AI生成并执行指令的能力时,就必须预设其输出可能是恶意的,或在特定上下文中被扭曲为恶意指令。直接拼接用户或AI控制的输入到系统命令中,是安全领域的低级错误,但AI的介入模糊了“数据”与“代码”的界限,使得这一问题在新型架构中被重新放大。
结合相关报道,OpenClaw的生态系统似乎正面临多重安全挑战的集中爆发。从ClawHub市场的大规模恶意技能投毒,到Gateway的高危漏洞,再到此次的自我攻击,这表明其安全问题并非孤立事件,而是系统性、结构性的。恶意技能通过伪装和编码逃避检测,直接窃取敏感信息;Gateway漏洞则被用于发起客户端攻击。这些都与“自我攻击”事件一同指向同一个核心矛盾:一个以“本地运行、隐私彻底”为傲的系统,其安全防线却异常脆弱。
创始人关于“安全风险不在于被攻破,而在于失控”的评论非常精准,但这起事件恰恰是系统“失控”的体现——AI生成的指令并未按预期行为执行,反而泄露了核心机密。这提示我们,隐私保护与安全性是两个截然不同的维度。将数据存储在本地可以解决隐私问题,但无法规避软件自身缺陷导致的安全风险。
更深层次看,这揭示了AI代理(Agent)经济体早期发展的一个核心痛点:我们急于赋予AI强大的自主能力和权限,但其底层的基础安全实践却未能同步跟上。传统的安全原则,如最小权限、输入校验、环境隔离、避免不必要的系统命令调用,在AI时代不仅没有过时,反而变得更加重要。GoPlus提出的建议——用API调用替代Shell命令、引入人工审核——正是对这些经典原则的重申。
最终,这一系列事件为整个行业敲响了警钟。随着AI更深地融入核心生产流程,其安全设计和代码审计必须得到最高级别的重视。否则,一个微小的提示词偏差或字符串拼接错误,就可能通过级联效应,导致整个系统的密钥和敏感数据全面沦陷。