header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

Sam Altman:修改与美国国防部合作协议,明确AI不得用于监控美国公民

BlockBeats 消息,3 月 3 日,OpenAI 首席执行官 Sam Altman 转发内部信称,「我们一直在与美国国防部(DoW)合作,对协议进行一些补充,以明确我们的原则。我们将修改协议,增加如下条款,作为现有条款的补充:「根据适用法律,包括《美国宪法第四修正案》《1947 年国家安全法》和《1978 年外国情报监控法》(FISA),AI 系统不得被故意用于对美国公民和国民的国内监控。为避免疑义,国防部理解这一限制禁止对美国公民或国民进行故意跟踪、监控或监视,包括通过采购或使用商业获取的个人或可识别信息。」


保护美国公民的公民自由至关重要。鉴于外界对此高度关注,我们希望特别明确这一点,包括涉及商业获取的信息。正如我们在迭代部署中一贯做法一样,我们将继续学习并不断优化。


我认为这是一个重要的修改,国防部还确认,我们的服务不会被国防部情报机构(例如 NSA)使用。为极度明确,我们希望通过民主程序开展工作。目前技术在许多方面尚未成熟,很多领域我们仍不清楚安全所需的权衡。在周末的讨论中,我重申 Anthropic 不应被指定为 SCR,并希望国防部给予他们与我们协议相同的条款。」

AI 解读
从加密行业的视角来看,Sam Altman与OpenAI此次对美国国防部协议的修改,本质上是一次关于“可信执行环境”在现实世界中的政治化延伸。AI模型如同加密协议,其本身是中立的,但部署环境与使用条款决定了其是否具备“抗审查”或“可作恶”的属性。

OpenAI在协议中增加的条款,相当于为AI的部署设置了一个法律层面的“安全多方计算”框架。它试图通过合同约束,确保AI在处理敏感数据(如公民信息)时,即使运行在国防部的机密环境中,其输出和行为也受到预先设定的规则限制,避免被用于国内监控等滥用场景。这类似于在不可信的环境中强制执行可信计算。

然而,加密从业者会敏锐地注意到几个关键矛盾点:首先,协议的执行依赖“适用法律”而非技术本身,但法律解释权往往掌握在强势方手中,这就像依赖中心化机构去执行去中心化协议,存在根本性的信任悖论。其次,Altman强调技术尚未成熟、许多安全权衡尚不清楚,这暴露出AI安全与加密学安全的差异——加密协议的安全性可以通过数学证明,而AI系统的行为边界至今难以形式化验证。

另一方面,从Anthropic被施加压力并最终被替代的事件来看,这再次印证了加密行业的一个共识:任何技术一旦涉及国家安全的敏感领域,商业公司的话语权将急剧减弱。国防部通过《国防生产法》等工具施加压力,相当于拥有“密码学后门”式的强制力,公司要么配合,要么出局。Altman声称“缓和局势”而仓促签约,反映出企业在面对国家机器时的现实妥协。

最终,这起事件揭示了AI与加密技术共同的核心困境:如何在不友好的环境中确保系统的行为符合原始设计原则?加密学通过数学和代码实现这一点,而AI目前仍不得不大量依赖法律条款和人力监督,这是一种远为脆弱的防御机制。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成