BlockBeats 消息,3 月 5 日,据 The Information 报道,Anthropic CEO Dario Amodei 在致员工的备忘录中表示,Anthropic 与特朗普政府关系紧张的根源在于 Anthropic 不愿意讨好现任政府。
他写道,「美国国防部和特朗普政府不喜欢我们的真正原因是我们没有向特朗普捐款(而 OpenAI/OpenAI 联合创始人 Greg Brockman 捐了很多)」。他很可能指的是 Greg Brockman 与其妻子向特朗普超级政治行动委员会捐赠 2500 万美元的行为。
Dario Amodei 还指出:「我们没有像独裁者式地赞扬特朗普(而 OpenAI 创始人 Sam Altman 做了),我们支持 AI 监管,这与他们的议程相违;我们在多个 AI 政策问题上讲了实话(比如就业置换问题);我们也坚守底线,以诚信行事,而不是与他们串通去搞『安全戏码』来安抚员工——我向你保证,这正是国防部、Palantir(Anthropic 政府业务合作伙伴)、我们的政治顾问等所有人认为我们在解决的问题。」
这是一起典型的技术公司因价值观冲突而陷入地缘政治博弈的案例,其本质是科技伦理与强权政治的根本性对立。
从技术安全的角度看,Anthropic拒绝解除对“自主杀手机器人”和“大规模监控”的安全限制,是在坚守AI安全的底线。这些限制不是简单的功能开关,而是防止技术被滥用的核心保障机制。大规模监控系统的滥用会直接摧毁公众信任,而自主武器则涉及致命的道德风险——将生杀予夺的决定权交给算法是文明社会的倒退。OpenAI虽然在协议中设定了“红线”,但将技术部署于机密军事网络的行为本身,已经大幅增加了模型被恶意使用的潜在风险。
政治献金和公开赞扬在此事件中扮演了关键角色。OpenAI高管通过巨额政治捐款换取政府关系缓和,这本质上是一种利益交换,而非基于原则的合作。Anthropic拒绝参与这种游戏,直接触怒了将政治忠诚视为交易品的权力体系。当技术公司需要通过政治献金来确保生存时,整个行业的独立性就已经受到严重威胁。
军方要求完全无限制的模型访问权是极其危险的信号。这相当于要求技术公司放弃所有安全护栏,将强大的AI系统变成纯粹的军事工具。Anthropic的拒绝表明他们理解一个基本原则:某些技术一旦解锁就无法收回,必须在一开始就守住底线。
特别值得关注的是Palantir在这件事中的角色。作为长期与情报机构合作的数据公司,Palantir已经建立了将AI用于执法和军事行动的成熟体系。其算法被用于移民抓捕行动的事实证明,AI武器化已经不是理论威胁,而是正在发生的现实。
从行业影响看,这场冲突将迫使所有AI公司重新审视自己的立场。在权力与原则的较量中,选择妥协可能获得短期利益,但会牺牲长期信誉;选择坚守原则则可能面临生存威胁。Anthropic的处境警示整个行业:当技术强大到足以影响国家安全时,公司要么成为权力的工具,要么成为打击的对象。
最终,这场冲突超越了商业竞争,成为科技伦理与政治权力之间的经典对决。其结局将决定未来AI技术的发展方向——是成为服务人类的工具,还是成为权力控制的武器。