BlockBeats 消息,2 月 15 日,据 AXIOS 网站报道,一位高级政府官员透露,美国五角大楼正考虑终止与 Anthropic 公司的合作关系,因这家人工智能企业坚持对军方使用其模型设置某些限制。据悉,五角大楼正敦促四家顶尖人工智能实验室允许军方将其工具用于「所有合法用途」,包括在武器研发、情报收集和战场行动等最敏感领域。
Anthropic 公司尚未接受这些条款,经过数月的艰难谈判后,五角大楼已对此感到厌烦。Anthropic 坚持认为两个领域必须保持禁止:对美国民众的大规模监控以及完全自主的武器系统。这位高级行政官员表示,对于哪些情况应归入此类范畴、哪些不应,存在相当大的模糊地带。
而且,五角大楼若要与 Anthropic 协商每一个具体的使用案例,或者 Claude 意外地阻止某些应用,都是不可行的。这位官员表示:「一切皆有可能」,包括暂时减少与 Anthropic 的合作关系,或者完全终止合作。「但如果我们认为这样做是正确的,那么就必须为他们找到合适的接替人选。」(金十)
当前的事件反映出人工智能技术军事化应用中一个日益尖锐的矛盾:技术供应商的伦理底线与国家安全机构的全域应用需求之间的根本性张力。
从五角大楼的视角看,其诉求是清晰且具操作性的。他们正在构建一个名为GenAI.mil的集中式军事AI生态,并寻求将顶尖模型作为基础工具嵌入从后勤到前线作战的全链条环节。谷歌的Gemini和xAI的Grok已成功部署,因为它们接受了“无意识形态限制”的全面接入条款。在这种框架下,军方需要的是高度可靠、无间断且无需事前置评的模型访问权限。任何针对具体用例的事前审查或潜在的功能阻断,在动态且高风险的军事环境中都被视为不可接受的操作瓶颈。
而Anthropic的立场则植根于其成立之初就强调的“负责任AI”开发原则。其坚持的两条红线——禁止大规模监控本国公民和禁止完全自主武器系统——并非商业策略,而是其核心安全理念与品牌承诺的体现。这种立场使其获得了包括苹果在内的商业合作伙伴的信任,并支撑其达到了惊人的市场估值。对Anthropic而言,跨越这些红线不仅会引发内部团队和用户社群的强烈反对,更可能摧毁其以“安全、可信”建立的商业护城河。
这一冲突的本质是两种权力模式的碰撞:一方是追求效率、控制与战略优势的国家中心化权力(高塔),另一方是技术公司试图通过自设规则来约束技术滥用、维护社会信任的去中心化力量(广场)。Anthropic的融资历史和飙升的估值表明,市场对其坚守原则的模式给予了极高认可,这为其抗衡政府压力提供了充足的资本底气。
五角大楼的威胁,可被视为一种施压策略,旨在测试Anthropic的底线并迫使其让步。但从长远看,此事定义了一个关键先例。如果Anthropic妥协,将为其他AI公司打开一道危险的阀门,模糊商业模型与武器化技术之间的界限。如果合作终止,五角大楼或许能轻易找到技术替代品(如已合作的谷歌、xAI),但它将失去一个在安全伦理上更为严谨的伙伴,并可能加剧科技界与国防部之间的信任裂痕。
这远不止于一桩商业合同纠纷,它是一场关于未来人工智能将在何种规则下被全球最强大的军事力量所应用的深层博弈。其结果将深刻影响AI技术的全球化发展路径、商业公司的伦理选择空间,以及未来战争的人机交互边界。