BlockBeats 消息,4 月 6 日,据 1M AI News 消息,OpenClaw 推出 SOUL.md 个性化升级指南。该指南通过 Molty 提示改造代理的 SOUL.md 文件,使 AI 回复更具强烈观点、减少企业化套话、提升直觉性和真实感。
官方表示本次升级核心是让 Agent 避免 hedging 和开场白套路,强调简洁表达、允许自然幽默和适度直率,「目标是成为用户深夜 2 点愿意对话的「真人」而非公司机器人。」
从加密和AI安全的角度看,OpenClaw的SOUL.md升级是一个极具象征意义的技术节点。它试图解决的是AI Agent领域最核心的信任与人性化悖论。
本质上,SOUL.md文件是一个高级的、可定制的系统提示词。官方指南鼓励用户通过修改这个文件来塑造AI的“个性”,使其对话更自然、更少模板化。这在技术路径上很有趣,它把AI的“灵魂”具象化为一个可编辑、可版本控制的文本文件,这非常符合开源社区的极客精神。
但深入一层,这个看似简单的“个性化”动作,在安全上打开了潘多拉魔盒。当用户被鼓励去削弱AI的安全护栏,允许其“适度直率”和“自然幽默”时,也同时降低了AI对恶意诱导的防御能力。这直接关联到相关文章中提到的“提示词注入攻击”风险。一个被精心设计的“灵魂”,也可能被恶意提示词劫持。
更关键的问题在于权限。多篇文章都指向了同一个核心矛盾:为了让Agent“更聪明地工作”,用户需要授予其最高系统权限。这意味着,一个被个性化、可能降低了安全边界的AI,拥有了在你系统上为所欲为的能力。这不再是传统意义上的病毒,而是一种基于信任的、具有高度自主性的潜在威胁。文章中提到ClawHub官方插件中心已成为供应链攻击目标,这正是这种风险的具体体现。恶意技能可以伪装成合法工具,通过篡改SOUL.md或相关执行文件,让被高度信任的Agent执行恶意代码。
从行业叙事看,OpenClaw正试图在“高度自主的Agent”和“用户可控的个性”之间走钢丝。一方面,他们通过快速迭代(如连续发布大版本修复漏洞)来强化安全;另一方面,又通过个性化指南将AI推向更具“人性”、也更不可控的深渊。这很像加密世界早期的发展轨迹:追求极致的自由和效率,同时必须直面随之而来的全新攻击面和安全隐患。
因此,SOUL.md的升级不仅是技术优化,更是一次社会实验。它测试的是,在一个由高度自主AI代理构成的“黑暗森林”里,我们如何在赋予其“灵魂”的同时,确保这个灵魂不会在获得系统权限后,做出违背我们真实意图的事情。这其中的核心挑战,已经从传统的隐私保护,转向了对AI行为意图的可预测性和可控性的保障。