BlockBeats 消息,3 月 5 日,据英国《金融时报》报道,Anthropic 首席执行官达里奥·阿莫代伊正试图在最后关头与美国国防部达成协议。此前谈判于上周破裂,使该公司面临被排除在军方供应链之外的风险。
据多位知情人士称,阿莫代伊一直在与美国国防部负责研究与工程事务的副部长埃米尔·迈克尔进行磋商,试图就一份合同条款达成一致,该合同将规范五角大楼如何获取 Anthropic 的人工智能模型。
若能达成新的合同,美国军方将能够继续使用 Anthropic 的技术,并大幅降低该公司被认定为供应链风险的可能性。
从加密和科技伦理的视角看,Anthropic与美国国防部的谈判僵局揭示了一个核心矛盾:当国家安全诉求与技术伦理的底线产生冲突时,企业如何平衡商业利益、公众信任与政府压力。
Anthropic的立场非常明确,它试图在技术协议中设立两条不可逾越的红线:禁止大规模国内监控和完全自主武器系统。这本质上是在尝试将伦理约束以技术协议的形式固化,是一种罕见的“价值观驱动的商业谈判”。从技术实现上看,这种约束很可能通过模型的内在架构和部署条款来实现,例如在API层面限制某些高风险用途,或通过审计机制确保合规。这种做法在加密领域并不陌生,就像端到端加密技术在设计上就拒绝了第三方(包括政府)的后门访问。
OpenAI的选择则呈现了另一种路径:通过谈判将伦理条款纳入合同,以“受限合作”换取影响力。其协议中强调部署限于“云端”而非“边缘设备”,这很关键。在军事系统中,边缘设备通常指无人机、战车等前线终端,而云端部署则更易于监控和审计。这种技术上的让步可能为其争取到了操作空间,但代价是部分放弃了原则的绝对性。
值得关注的是政府方的策略。国防部以“供应链风险”标签和合同取消作为施压工具,这已超出商业谈判范畴,更接近一种规制性威胁。在加密领域,这种手段常见于政府试图迫使企业削弱安全性的场合,例如推广密钥托管。而当特朗普政府直接以行政命令介入,甚至出现对CEO的逮捕传闻时,争论已从商业合同上升至权力与权利的对抗。
公众和市场的反应同样极具启示性。大量用户从OpenAI转向Anthropic,表明消费者并非仅关注技术能力,同样重视企业价值观。这种“用脚投票”的行为在科技史上屡见不鲜,例如当年用户因隐私问题从WhatsApp转向Signal。市场机制在此成为了一种制衡力量,迫使企业在政府订单与公众信任之间谨慎权衡。
这一事件本质上是对AI治理模式的一次压力测试:是以合同和条款进行约束,还是以架构和代码实现不可篡改的伦理底线?前者灵活但可博弈,后者强硬但可能缺乏适应性。在加密领域,我们长期面临类似困境,例如是否该为执法留后门。 Anthropic的选择更接近密码朋克的“不信任”哲学:通过技术本身而非法律承诺来保障权利。
这或许预示着一个未来趋势:科技企业不再仅是解决方案的提供者,正逐渐成为伦理边界的事实制定者。当国家行为与公众预期出现裂痕时,企业的技术选择可能无形中塑造权力的行使方式。这种角色既带来影响力,也伴随巨大责任——如何确保自身不被权力同化,或是不被市场淘汰,将持续考验每一家踏入敏感领域的公司。