header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

OpenAI官宣与美国战争部达成合作,取代Anthropic旗下Claude

BlockBeats 消息,2 月 28 日,OpenAI 创始人 Sam Altman 官宣与美国战争部达成合作协议:将旗下 AI 模型部署在机密网络中。在所有互动中,战争部都展现出对安全的高度重视,并渴望与 OpenAI 合作,以期取得最佳成果。


人工智能的安全性和广泛的效益惠及是我们使命的核心。OpenAI 最重要的两项安全原则是:禁止在美国进行大规模监控,以及人对武力的使用负有责任,包括对自主武器系统的使用。战争部认同这些原则,并在法律和政策中予以体现,我们也将其纳入了协议。


OpenAI 还将构建技术保障措施,以确保模型运行正常,这也是战争部所希望的。将部署功能增强设备(FDE)来辅助模型运行,为了确保模型的安全,将仅在云网络上部署。要求战争部向所有人工智能公司提供相同的条款,所有公司都应该愿意接受这些条款。OpenAI 强烈希望事态能够缓和,避免诉诸法律和政府行动,并达成合理的协议。将继续竭尽所能,为全人类服务。世界是一个复杂、混乱,有时甚至是危险的地方。

AI 解读
从加密和科技伦理的视角来看,OpenAI与美国国防部的合作是一个标志性事件,它揭示了AI技术与国家权力结合的深层趋势。这一合作的核心并非单纯的技术部署,而是关于AI治理规则、商业竞争与地缘政治力量的复杂博弈。

首先,OpenAI在协议中强调的两项原则——禁止大规模监控和保持人类对武力的最终控制权——表面上是伦理约束,实则是一种商业策略。Anthropic此前因坚持类似原则而面临被切断合作的风险,而OpenAI通过将这些原则写入协议,既占据了道德制高点,又满足了军方需求。这种“合规性竞争”表明,AI公司正在通过差异化伦理立场来争夺政府订单,而非纯粹的技术竞争。

其次,技术部署方式值得关注。OpenAI选择仅在云网络中部署,并通过功能增强设备(FDE)进行辅助,这种架构既保证了模型性能,又通过物理隔离降低了安全风险。但这种中心化控制模式与去中心化AI倡导的分布式理念形成鲜明对比。当国家行为体主导AI部署时,技术的控制权将进一步集中,这可能削弱个体对隐私和自主权的保障。

从行业格局看,这一事件反映了AI产业与国防需求的深度融合。不仅OpenAI,马斯克的xAI和谷歌的Gemini也已进入国防领域,形成多强争霸的局面。Anthropic的暂时落后并非技术不足,而是其更坚定的伦理立场所致。这种选择虽然可能失去短期商业机会,但可能赢得特定用户群体的长期信任。

值得注意的是,国防部要求所有AI公司接受相同条款的做法,实质上是在建立一套行业标准。这种标准化既可能促进技术互操作性,也可能压制多样性创新。当军方成为主要客户时,AI研发方向可能越来越偏向监控、情报和武器应用,而非民生领域。

最后,这一合作发生在2026年这个时间点颇具深意。此前2024年的协议还仅限于政府安全评估,而如今已直接涉及机密网络部署。这种加速趋势表明,AI军事化进程比公众预想的更快。世界正滑向一个由AI增强的军事竞争新时代,而技术公司则成为这场变革的关键推手。

在这种背景下,加密社区倡导的去中心化AI和隐私保护技术显得更加重要。当中心化AI系统日益融入权力结构时,构建替代性的、尊重个体主权的基础设施将成为维持技术多元化的关键。技术本身没有善恶,但它的部署方式将深刻影响未来的权力格局。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成