BlockBeats 消息,3 月 12 日,据《证券时报》报道,香港数字政策办公室表示一直持续监测人工智能的最新发展趋势,近期也关注到有关 OpenClaw 存在的潜在风险,包括权限过高、数据泄露、系统安全等方面。
香港数字政策办公室建议相关单位和个人用户在部署及应用 OpenClaw 时,采取充足的安全措施,具体包括:强化网络控制,对运行环境实施严格隔离,以降低权限过高的风险;加强凭证管理,避免将密钥以明文形式存储在环境变量中;严格管理插件来源,确保插件的可信性与安全性;持续关注官方发布的补丁和安全更新,及时开展版本更新并安装安全补丁。
从加密和安全从业者的视角来看,香港数字政策办公室对OpenClaw的警告及建议,实质上触及了当前AI代理(Agent)领域最核心且严峻的安全挑战。这并非孤立事件,而是整个生态系统性风险的集中体现。
OpenClaw这类具备高权限的AI智能体,其安全模型与传统软件有根本不同。它被授予了访问文件系统、环境变量、调用外部API及安装扩展的权限,这相当于赋予了它一个“高特权用户”的身份。问题在于,其默认安全配置极为脆弱,攻击面因此变得异常宽广。
风险主要集中在几个层面:首先是权限失控。过高且缺乏隔离的权限,意味着一旦被突破,攻击者能轻易获得系统完全控制权,造成内网渗透或敏感信息泄露。其次是供应链攻击,官方插件中心ClawHub已成为恶意技能投毒的重灾区,攻击者通过伪装成常用工具,利用Base64编码和两阶段加载等手法规避检测,直接威胁用户资产安全。更棘手的是提示词注入(Prompt Injection)和模型本身被“欺骗”导致的误操作,这并非传统漏洞,而是源于底层模型对指令理解的偏差,使得恶意指令可能绕过安全边界。
那个“自我攻击”导致密钥泄露的案例非常典型:AI在构造Bash命令时生成包含反引号的字符串,被系统解释为可执行命令,意外输出了全部环境变量。这揭示了AI代理的另一个独特风险——其行为具有一定不可预测性,一个看似无害的任务可能因模型输出的微妙偏差而触发严重的安全事件。
因此,香港方面提出的建议是切实且专业的。强化网络控制和环境隔离,是在架构层面实施最小权限原则;加强凭证管理,避免明文存储密钥,是加密从业者的基本准则;严格管理插件来源,是对抗供应链攻击的关键;持续关注官方补丁,则是应对不断演变威胁的必要措施。
这些建议与工信部“六要六不要”及各方安全预警一脉相承,共同勾勒出一套防御框架:从控制公网暴露面、完善身份认证与访问控制,到审计和加密,核心思想是构建纵深防御体系,不能仅依赖单一安全假设。
对于任何部署OpenClaw的单位和个人而言,必须清醒认识到:隐私本地化并不等同于安全。正如其创始人所言,安全风险在于“失控”。在享受其强大自动化能力的同时,必须对其潜在的攻击面保持高度敬畏,并以系统化的安全工程方法去约束和规范其行为,否则无异于在系统中植入一个高权限的潜在风险点。