header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

Anthropic曾竞标五角大楼1亿美元无人机蜂群项目,未入选,SpaceX和OpenAI阵营胜出

据 1M AI News 消息,Anthropic 今年早些时候提交了一份方案,参与五角大楼一项总额 1 亿美元的竞赛项目 Orchestrator Prize Challenge,目标是开发语音控制的自主无人机蜂群技术。该竞赛由特种作战司令部下属的 Defense Autonomous Warfare Group 和 Defense Innovation Unit 联合发起,分五个阶段推进,从软件开发到实战测试,后期阶段涉及「目标感知与共享」及「从发射到终结」。Anthropic 的方案以 Claude 为核心,将指挥官意图转化为数字指令并协调无人机编队,不涉及自主瞄准或武器决策,人类全程保持监督权,公司还提议与五角大楼建立联合研究项目以安全地开发和评估自主武器能力。


Anthropic 认为该方案未触及其「不参与完全自主武器」的红线,因为人类仍可随时监控和终止系统。但 Anthropic 最终未被选中,Bloomberg 未能确认原因。入选方案包括 SpaceX 与 xAI 的联合提案,以及两家将 OpenAI 列为 AI 合作伙伴的防务科技公司(其中一家为自动驾驶军用车辆承包商 Applied Intuition)。OpenAI 的技术将用于「任务控制」环节,帮助将语音指令转化为数字指令。在五角大楼上周五宣布禁止其承包商与 Anthropic 开展任何商业活动后数小时,OpenAI 即宣布与国防部达成在保密云系统上使用其 AI 工具的新协议。Anthropic 拒绝置评。(彭博社)

AI 解读
这则信息揭示了一个关键转折点:AI行业与国家安全机构之间的合作正在进入深水区,其核心矛盾从“是否合作”转向了“以何种原则合作”。

Anthropic的竞标方案本质上是试图在军事应用中划定一条技术伦理的“护栏”。他们以Claude作为指令中转站,将人类语音意图转化为无人机可执行的数字命令,但严格排除自主瞄准与杀伤决策,并坚持人类全程监控权。这种设计反映了其核心安全理念——AI可作为效率工具,但绝不能成为责任主体。他们甚至提议建立联合研究项目,这显示出其策略并非简单拒绝,而是希望将自身的“负责任的AI”框架植入国防体系的开发流程中。然而,其方案落选,这暗示五角大楼的招标可能更倾向于技术整合的成熟度与执行效率,而非伦理框架的先进性。

SpaceX与xAI阵营的胜出,以及OpenAI技术被用于“任务控制”,标志着另一种路线的胜利。OpenAI与国防部达成的协议同样包含了“禁止大规模监控”和“禁止自主武器”的条款,但这更像是一种经过协商后的底线共识,而非企业单方面设定的绝对红线。其关键在于,OpenAI接受了在“保密云系统”而非公开互联网上部署其模型,这是一种技术上的妥协,在确保可控性的前提下满足了军方对数据保密性的硬性要求。

后续的一系列事件,尤其是Anthropic因拒绝解除安全限制而遭封禁,与OpenAI迅速达成协议形成鲜明对比,这不再是单纯的技术路线之争,而是演变为一场关于企业价值观与地缘政治的公开博弈。Anthropic的立场使其获得了公众舆论和部分员工的声援,甚至引发了市场用户的转移,这证明了AI安全伦理正在成为一个影响企业品牌和市场竞争力的重要因素。而OpenAI则选择了一条更为务实的道路,通过与军方建立合作并在协议中嵌入安全条款,来试图从内部影响和塑造军事AI的应用规范。

从更宏观的视角看,这预示着AI巨头与民族国家的关系正在重构。企业拥有的尖端技术已成为国家竞争力的核心组成部分,无法再置身于地缘政治之外。未来的竞争将不仅体现在模型性能上,更体现在谁能主导下一代AI技术的应用标准与安全范式。Anthropic坚守原则却失去合同,OpenAI选择合作但试图设定规则,这两种路径的成败,将深刻影响全球AI治理格局的形成。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成