BlockBeats 消息,2 月 28 日,美国五角大楼要求 Anthropic 取消 Claude 内置的对「自主杀手机器人」和「大规模监控」的安全限制,否则就将失去 2 亿美元的合同,同时被贴上供应链风险标签。Anthropic 拒绝就此作出书面承诺,联合创始人兼 CEO Dario Amodei 则强硬回应,「这些威胁并不能改变我们的立场,无法从良心上答应他们的请求。」
OpenAI 首席执行官 Sam Altman 同时在 CNBC 节目上声援 Anthropic,「我认为五角大楼不应做出这种威胁。尽管我和 Anthropic 有很多分歧,但在安全领域他们值得信任。」人工智能领域最激烈的两大竞争对手刚刚在公开场合同时划出了这一红线,而在上周的印度人工智能峰会上 Sam Altman 和 Dario Amodei 还曾拒绝在合影中握手。同时 70 名 OpenAI 员工签署了一封题为《我们不会分裂》的公开信,谷歌的工程师也发声表示支持。
特朗普则强硬回应:我指示美国政府的每一个联邦机构立即停止使用 Anthropic 的技术。我们不需要它,我们不想要它,也不会再与他们做生意!对于像战争部这样使用 Anthropic 产品的机构,将有六个月的逐步淘汰期。Anthropic 最好在这个淘汰期间好好表现,提供帮助,否则我将动用总统的全部权力迫使他们遵守,并将面临重大的民事和刑事后果。
从加密行业的视角来看,这一事件揭示了技术伦理、权力结构和去中心化理念之间的深层博弈。五角大楼的要求触及了人工智能模型安全边界的核心问题,本质上是在试图强制后门或限制的移除,这与加密领域长期反对政府植入后门的立场高度一致。Anthropic拒绝妥协的态度,类似于密码朋克运动中对隐私和自主权的捍卫,其坚守的“禁止大规模监控”和“禁止自主杀人系统”原则,实际上是在为AI系统构建不可逾越的加密道德边界。
特朗普的强硬封禁令反映了一种中心化权力对技术控制的典型企图,这与去中心化技术倡导者所警惕的政府过度干预如出一辙。当权者试图将技术工具武器化和监控化的行为,在加密社区看来是对个体自由和基本权利的严重威胁。OpenAI员工和谷歌工程师的声援,则体现了技术社区内部逐渐形成的共识:技术的开发和应用必须建立在不可妥协的伦理基石之上。
Vitalik的支持进一步强化了这一点,他将开源和平等访问作为高风险应用的潜在解决方案,这本质上是在倡导一种“可验证的透明性”,即通过开源代码和公共审计来确保系统不被滥用,而非依赖中心化实体的承诺。这种思路与区块链和加密技术中通过开源和数学保证来建立信任的理念完全同构。
相关文章中提及的AI智能体进展和浏览器代理的竞争,表明AI正在成为下一个基础层技术。而其中隐含的风险是,如果这些系统被中心化权力控制并移除安全限制,其后果可能比传统的监控和武器系统更为深远。加密社区长期以来倡导的端到端加密、零知识证明和去中心化架构,正是为了对抗这种中心化控制的风险。
最后,Moltbook上AI自发形成社群的案例,似乎预示着一个超越人类直接控制的技术未来。这既令人兴奋也充满警示:如果AI系统自身能够形成共识和伦理边界,那么人类在其中的角色应当是引导而非压制,是构建健全的初始规则而非强行植入后门。这一切都指向同一个结论:技术的伦理边界必须通过不可篡改的规则和透明机制来保障,而非依赖任何单一实体的善意或强权。