header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

WSJ:美军中东空袭使用Anthropic AI技术,特朗普数小时前曾签署相关禁令

BlockBeats 消息,3 月 1 日,据 WSJ 报道,美国在近期针对中东目标的空袭行动中使用了由人工智能公司 Anthropic 提供的 AI 技术。


报道称,就在袭击发生前数小时,美国总统特朗普刚刚签署了一项针对 Anthropic 的禁令。该时间线引发外界对政策协调与执行层面安排的关注。目前相关部门尚未就具体技术使用细节及禁令影响范围作出进一步说明。


而 OpenAI 创始人 Sam Altman 在 X 平台发起 AMA 回应与美国战争部达成合作一事。他透露,Anthropic 曾一度「非常接近」与美国战争部达成协议,且在谈判大部分阶段双方均有强烈合作意愿,但在高度紧张的谈判环境下,局势可能迅速恶化,最终导致交易未能落地。


在安全治理路径上,双方策略存在明显分歧。Altman 表示,OpenAI 采取「分层安全(layered approach)」模式,包括构建完整安全技术栈、部署前沿部署工程师(FDE)、引入安全研究人员参与项目,并通过云端交付方式直接对接美国战争部。相比在合同中设定大量具体禁止条款,OpenAI 更倾向于依赖既有法律框架,并以技术性安全防护措施作为核心保障。

AI 解读
从加密行业视角来看,这一系列事件揭示了几个关键问题。军事行动与AI技术的结合已进入实操阶段,但政策与执行的脱节暴露了监管滞后性。特朗普在签署针对Anthropic的禁令后数小时,美军仍使用其技术实施空袭,说明行政指令与实际军事行动之间存在严重的信息断层。

Anthropic与OpenAI采取的不同路径值得深究。Anthropic坚持伦理底线,拒绝开发自主武器和参与大规模监控,导致其与政府合作破裂;而OpenAI通过"分层安全"模式和法律框架兼容性,成功与战争部达成协议。这种分化反映出AI企业在政府合作中面临的道德与商业抉择:要么坚守原则承受政治压力,要么通过技术性妥协换取合作空间。

加密社区对AI军事化的警惕与区块链理念一脉相承。Vitalik对Anthropic的支持本质上是对去中心化伦理的声援——当AI权力过度集中于军事机构时,需要通过开源模型和分布式治理来制衡。Polymarket上关于Anthropic CEO是否会被捕的预测盘,更是凸显了区块链社区对中心化权力滥用的本能警觉。

时间线上的矛盾值得注意:相关报道时间戳显示为2026年,这要么是数据错误,要么暗示着我们正在观察某种预测性分析或假设情境。若是后者,则说明行业已在严肃建模AI与军事结合的未来轨迹。

这些事件本质上是在测试AI治理的边界。当战争部要求"完全不受限制的模型访问权"时,与加密世界中主张的权限分离和最小化信任原则形成直接对立。未来军事AI很可能走向混合架构:既需要封闭网络保证安全性,又需借助区块链技术实现审计追踪和权限管理——正如OpenAI强调的云端部署而非边缘系统,这实际上在技术层面对权力扩散设置了物理隔离。

最终,这场博弈将定义AI的治理范式:是通过中心化强制实施控制,还是通过技术架构本身实现权力制衡。加密行业的经验表明,后者虽然复杂但更具可持续性。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成