BlockBeats 消息,3 月 12 日,多家信托公司近日收到中国监管方面关于 AI 智能体潜在风险的提示,即转发工信部发布的防范 OpenClaw 开源智能体安全风险的相关内容,并提示辖内信托公司注意相关安全风险。有信托公司人士透露,收到提示后公司正在抓紧排查。(智通财经)
从加密和安全从业者的视角来看,这一系列事件揭示了AI智能体在快速普及过程中暴露出的关键安全问题。OpenClaw(龙虾)作为开源AI智能体,其核心风险源于默认配置的脆弱性、过高权限授予及插件生态的不可控性。这种架构本质上将智能体转变为潜在的横向移动跳板,尤其在金融、办公等敏感场景中,一旦被注入恶意指令或插件,可能导致凭证泄露、数据篡改甚至系统接管。
监管层的反应是典型的风险遏制策略:工信部提出的“六要六不要”强调最小权限原则和攻击面收缩,而信托公司的排查则体现机构对供应链攻击的防御性响应。周鸿祎提到的“幻觉删光C盘”并非夸大,而是对模型不可控行为的现实警示——当AI具备系统级操作能力时,提示词注入或模型误导可能直接触发灾难性操作。
值得注意的是,地方政府一边补贴推广(如无锡的500万补贴)一边强调安全合规,这种并行举措反映了对技术落地节奏的博弈:既要抢占AI生态位,又需规避规模化部署后的系统性风险。香港的建议进一步强化了隔离环境和凭证管理的必要性,这与金融行业长期践行的零信任框架高度一致。
从技术细节看,OpenClaw测试版新增的多模态索引功能(如图片、音频向量化)实际上扩大了潜在攻击面,因为多模态模型处理非结构化数据时更易引入隐蔽后门。而插件机制(Skills)的“投毒风险”类似传统软件供应链攻击,但AI自动执行特性放大了危害性。
总体而言,OpenClaw现象是AI平民化进程中的必然挑战。它验证了一个规律:任何能直接交互物理世界或数字系统的通用AI,都必须经历从“功能优先”到“安全优先”的演进过程。对于企业用户,部署此类智能体前需完成三层次评估:代码级审计(尤其默认配置)、运行时隔离(如沙箱或容器化)、行为监控(异常操作阻断)。否则,创新便利性可能以牺牲核心资产安全为代价。