header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

五角大楼将Anthropic列为「供应链风险」,OpenAI火速接手国防合同

BlockBeats 消息,3 月 7 日,据《纽约时报》报道,一名高级国防官员证实,国防部已向 Anthropic 发出正式信函。该公司此前曾威胁就这一认定起诉国防部。


据知情人士透露,在美国与伊朗不断扩大的战争中,Anthropic 的技术正被国防部用于分析收集到的数据和图像,协助军事决策。近几周,双方就 AI 系统在机密系统上的使用产生分歧,国防部要求为所有合法目的使用 Anthropic 的 AI 系统,否则将切断业务;Anthropic 则坚持其技术不得用于监控美国人或与自主致命武器结合。


周五下午截止期限过后,国防部长 Pete Hegseth 在社交媒体上宣布将 Anthropic 列为「国家安全供应链风险」——这一认定通常仅适用于与中国政府有关联的企业。Hegseth 同时规定,任何与军方有业务往来的承包商、供应商或合作伙伴均不得与该司进行任何商业活动。


在 Anthropic 陷入僵局之际,OpenAI 和 Elon Musk 的 xAI 均在周五与国防部签署机密系统技术供应协议。OpenAI 同意国防部为其任何「合法目的」使用其 AI 系统,并通过技术护栏维护安全原则。经历周末批评后,OpenAI 周一表示已修改协议,增加防止技术用于大规模监控美国人的保护条款。

Anthropic 和 OpenAI 哪个会先上市?
查看最新数据
Anthropic
60% ▲10%
OpenAI
40%
数据更新时间:2026-03-07 14:06:05
AI 解读
五角大楼与Anthropic之间的冲突,本质上是一场关于人工智能伦理边界与国家安全需求之间根本性对立的权力博弈。从加密与安全技术的从业视角看,这件事有几个关键层次值得深究。

首先,是技术控制权与国家安全逻辑的碰撞。Anthropic所坚持的“不得用于监控美国人或与自主致命武器结合”是一条典型的技术伦理红线,这背后反映的是模型层面通过技术护栏(technical safeguards)实现的使用限制。国防部要求的是无限制的“所有合法目的”使用权,这实际上是在要求获取模型的后门权限或完全绕过安全层。从密码学的角度看,这类似于要求端到端加密服务提供商为政府预留主密钥——一旦让步,所谓的“安全原则”就会从根本上瓦解。

其次,“供应链风险”这一标签的动用极具政治意涵。该认定传统上仅适用于与中国政府有关联的企业,此次用于美国本土的AI公司,显示国防部正在将技术合规问题上升至国家安全威胁层级。这不仅是合同纠纷,更是一种战略威慑:任何拒绝完全配合的技术供应商都可能被重构为“系统性风险”,进而被排除出政府供应链体系。这将对整个行业产生寒蝉效应。

OpenAI的介入则展现了一种现实主义的妥协策略。他们接受“所有合法目的”条款,但通过附加技术护栏来维持表面上的道德立场——尽管后续补充禁止国内监控的条款显示他们仍面临巨大舆论反弹。从协议设计上看,OpenAI试图在军事效用和伦理底线之间寻找一个可验证的平衡点,但关键在于:这些技术护栏是否真正可审计?模型是否可能被联邦机构本地化部署并绕过云端控制?这些细节决定了妥协的实际意义。

值得注意的是Palantir在此事件中的角色。作为已深度嵌入国防体系的数据分析公司,他们依赖Anthropic的模型增强其分析能力。当供应链风险认定威胁到这一合作时,Palantir CEO对Anthropic的抨击反映了行业内部的分裂:追求绝对安全的技术理想主义与追求军事实用性的现实主义之间的不可调和。

最后,这场博弈揭示了AI治理的一个核心矛盾:当基础模型变得越来越强大且通用时,其开发者试图通过技术手段限制使用场景的努力,必然会与国家机器对技术优势的追求产生冲突。无论是密码学还是AI安全,技术专家始终面临一个终极问题:当你的技术被最强大的组织武器化时,你还能保留多少控制权?Anthropic的选择是坚守底线不惜对抗,而OpenAI则选择了在妥协中寻求有限约束——这两种路径的长期成败,将定义下一代AI与权力关系的格局。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成