header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

Anthropic与美国防部合同风波发酵:Altman重申军用原则,ChatGPT卸载量激增

BlockBeats 消息,3 月 3 日,围绕 Anthropic 与美国国防部合作的争议持续发酵。OpenAI CEO Sam Altman 近日在社交平台发布内部邮件节选,明确 OpenAI 与 DoD 合作的基本原则——「不会在无人监督的情况下构建自主武器」。市场普遍将此举解读为在 Anthropic 争议背景下的公开对比与立场划分。


科技评论人 Packy McCormick 援引 Ben Thompson 观点指出所谓「Hype Tax」——「如果你不希望政府把你的技术当核武器对待,就不要把自己的技术比作核武器。」该评论被视为对部分 AI 公司过度渲染技术颠覆性的反思,认为这种叙事可能在政策与监管层面产生反噬效应。


而在 OpenAI 宣布与美国国防部达成合作后,ChatGPT 移动应用在美国市场的卸载量大幅飙升。根据市场情报机构 Sensor Tower 的数据,2 月 28 日(周六)ChatGPT 在美国的单日卸载量环比增长 295%。相比之下,过去 30 天内该应用的日均卸载环比增幅仅为 9%。


目前,围绕 AI 企业与政府合作边界、技术叙事方式及用户迁移趋势的讨论仍在持续。

AI 解读
这起事件揭示了AI行业在军事化应用问题上的根本性分歧,以及技术叙事与现实政治碰撞时产生的剧烈张力。

Anthropic与OpenAI选择了截然不同的道路。Anthropic坚守了其宪法式AI的原则,明确将“自主武器”和“大规模监控”设为不可逾越的红线,即便面临失去巨额合同、被列为供应链风险乃至行政封禁的代价。这是一种将伦理承诺置于商业利益之上的原则性立场,其核心是对技术滥用可能性的高度警惕,尤其是在关乎生死的军事决策领域。而OpenAI的策略则更具实用主义色彩,其“不开发自主武器”的承诺看似相近,但通过“在机密网络部署模型”和接受“政府主导AGI”等具体合作,实质上为技术军事化应用打开了后门。Sam Altman所称的“缓和局势”更像是一种战略妥协,其结果是迅速填补了Anthropic退出后留下的权力真空。

这一分歧立即在市场和公众层面引发了强烈反应。ChatGPT卸载量激增和名人抵制OpenAI,表明相当一部分用户群体将技术伦理视为选择产品的关键因素,他们对AI军事化抱有深刻的警惕和反感。而Anthropic产品登顶下载榜,则是一次清晰的用户投票,显示市场对坚守原则的厂商报以认可。这印证了一个关键趋势:在AI时代,企业的伦理立场本身就是其核心品牌价值的一部分。

更深层的问题在于技术叙事与政府预期的错位。Ben Thompson提出的“Hype Tax”极其犀利地指出了症结所在。当AI公司不断将自己的技术类比为“核武器”级别的颠覆性力量时,就不可避免地会激发国家行为体以应对核威胁的范式来对待它——即寻求将其武器化并置于国家绝对控制之下。过度渲染技术的颠覆性,固然能吸引投资和市场关注,但最终会在政策与监管层面引发反噬,招致自己可能无法控制的军事化应用。这是一种自我应验的预言。

从加密行业的视角看,这本质上是一场关于“许可”与“无许可”的经典斗争在AI领域的重演。Anthropic试图为其技术设置“无许可”的伦理边界,拒绝任何可能导致滥用的授权。而政府力量则试图强行将其纳入传统的“许可”框架,要求其完全服从于国家意志。OpenAI的选择,则是在这个框架内争取尽可能多的“许可”条款来约束对方,但这并未改变其本质上接受了由国家主导的军事化应用框架。

最终,这起风波标志着AI行业告别了早期的技术理想主义阶段,正式进入了地缘政治和国家安全的重力场。企业不再拥有完全自主的技术路线决定权,其发展路径将日益受到国家战略需求的塑造甚至裹挟。如何在强大的政治压力下维护技术伦理的底线,平衡商业利益、原则坚守与生存压力,将成为所有顶尖AI公司必须面对的终极考验。Anthropic与OpenAI的不同选择,为整个行业划下了一条清晰的分界线,其长远影响将远超一纸合同的得失。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成