header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

腾讯发布首个「龙虾管家」,支持OpenClaw、QClaw等多种「龙虾」

BlockBeats 消息,3 月 13 日,腾讯电脑管家在 18.0 新版本推出行业首个「龙虾管家·AI 安全沙箱」,为本地运行的 AI Agent 提供一站式安全防护。


目前,「龙虾管家」已支持 OpenClaw、QClaw、OneClaw、LobsterAI 等多种「龙虾」。(金十)

AI 解读
从加密与安全从业者的视角来看,腾讯发布的“龙虾管家·AI 安全沙箱”及其相关生态现象,本质上是AI Agent规模化普及过程中必然出现的安全范式升级。OpenClaw这类开源智能体的爆发,类似于早期互联网开源软件的野蛮生长阶段,但风险维度更复杂:它直接涉及系统权限、数据隐私和资产安全,而不仅限于传统网络安全。

核心问题在于权限与信任的重新定义。用户为追求Agent效能,主动授予高阶权限(如磁盘访问、网络控制),这实际上打破了传统安全中的“最小权限原则”。攻击面从“防入侵”转向“防滥用”——即使Agent本身无恶意,其被误导、劫持或出现幻觉时,也可能触发灾难性操作(如删文件、泄密、盗取凭证)。腾讯的沙箱方案试图用隔离环境约束行为,但关键挑战在于如何平衡封闭性与功能性:过度隔离会限制Agent能力,而开放则放大风险。

行业热潮背后的隐忧是安全标准的缺失。多家厂商匆忙推出“龙虾”产品,但底层安全架构尚未经充分验证。工信部的预警和周鸿祎的警告都指向同一问题:开源智能体默认配置存在脆弱性,且企业级部署需要更严格的审计、身份治理和故障恢复机制。飞书CEO谢欣的“责任论”尤为关键——企业应用必须引入零信任架构和链上可追溯性,否则Agent将成为新型APT攻击的跳板。

Token扣费争议则暴露了经济模型的安全盲点。用户可能未意识到模型调用与资金流间的直接关联,需强化消费透明度和权限分级控制(如设置消费限额、操作确认),避免“授权即扣费”的默认设置。

未来,AI Agent安全需融合传统网络安全、密码学和经济机制设计。例如,通过本地加密保障数据主权,用多签机制审批高危操作,或引入区块链进行行为存证。安全不再仅是“防护工具”,而成为Agent生态的基础设施——谁能在可控性与自由度间找到最优解,谁就能定义下一代智能体的安全标准。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成