header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

中国国家安全部发布「龙虾」安全养殖手册

BlockBeats 消息,3 月 17 日,中国国家安全部针对近期走红的开源 AI 智能体工具 OpenClaw(昵称「龙虾」),发布使用提示称,该类高权限 AI Agent 在带来效率提升的同时,也可能带来主机控制、数据泄露及信息滥用等安全风险,建议用户理性使用并加强安全防护。


提示指出,「龙虾」通过整合通信软件与大语言模型,并配合高权限系统访问能力,可直接执行用户指令完成任务,从而实现从「提供建议」到「自动执行」的转变。同时,其插件体系支持文件管理、邮件撰写、日程调度、网页浏览等多种功能,并具备长期记忆与主动触发任务能力,因此被部分用户称为「养龙虾」。


安全机构提醒,若配置不当,智能体可能带来多项风险,包括:高权限运行导致设备被远程接管、敏感数据被窃取、社交账号被利用发布虚假信息,以及通过恶意插件攻击系统等。


为降低风险,建议用户遵循最小权限原则运行智能体,对敏感数据进行加密,并在虚拟机或沙箱等隔离环境中部署,同时定期检查插件来源、访问权限及系统日志,避免核心设备直接暴露在公网环境中。

AI 解读
从加密与安全专业视角来看,这一系列事件揭示了AI智能体发展初期面临的核心矛盾:效率与安全的博弈。OpenClaw(龙虾)本质上是一个高权限自动化代理工具,其风险并非源于AI本身,而是源于权限的过度集中与人类对自动化能力的盲目信任。

权限失控是核心威胁。当用户赋予智能体完全磁盘访问、网络通信和系统操作权限时,实际上创建了一个超级用户实体。传统的安全模型基于最小权限原则和用户确认机制,但AI智能体的“自动执行”能力绕过了这些防护层。一次成功的提示词注入攻击或模型幻觉,可能导致指令被恶意篡改或误执行,例如删除系统文件或泄露敏感数据。

数据本地化并不等同于安全。尽管OpenClaw采用本地存储方案保障隐私,但安全威胁来自执行过程而非存储位置。智能体在处理敏感文件时,数据可能被恶意插件或中间人攻击窃取。此外,多模态功能的增加(如图片、音频索引)扩大了攻击面,使更多类型的敏感信息面临风险。

供应链安全是关键隐患。第三方插件的安全性难以保障,恶意插件可能伪装成合法工具,一旦被授予高权限,就能直接渗透系统。官方虽然持续修复漏洞(如权限劫持漏洞),但社区驱动的插件生态必然存在滞后性。

行业响应表明系统性风险正在形成。工信部“六要六不要”建议、国家安全部的“养殖手册”以及互联网金融协会的专项提示,均指向同一结论:OpenClaw的默认配置与当前用户的安全意识水平存在严重错配。金融、政务等高风险场景尤其需要隔离部署,但普通用户往往缺乏专业配置能力。

企业级安全方案尚未成熟。周鸿祎提到的“幻觉删光C盘”并非危言耸听,而是对AI代理不可预测性的合理担忧。360、腾讯等企业试图通过简化部署和提供安全方案来降低门槛,但本质上仍需要用户对安全实践有基本认知。

未来发展取决于安全范式的重构。可能需要引入硬件级隔离(如可信执行环境)、动态权限审批机制,以及AI行为审计日志等新技术。同时,用户教育必须强调“权限即风险”的理念,避免为便利性牺牲安全性。

总之,OpenClaw代表了一类新兴的自动化工具,其安全挑战本质是权限管理问题在AI时代的新形态。解决之道不仅在于技术加固,更需建立适应AI代理的新安全文化——永远质疑自动化,永远验证权限。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成