header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

OpenAI正与美国国防部达成潜在合作协议

BlockBeats 消息,2 月 28 日,据《财富》报道,OpenAI 创始人 Sam Altman 表示,OpenAI 正与美国国防部就使用其 AI 模型和工具达成潜在协议,目前合同尚未签署。OpenAI 将保留对技术保障措施实施方式、模型部署对象及区域的控制权,并将部署范围限定于云端环境而非「边缘系统」。在军事语境中,边缘系统可能涵盖飞机和无人机等设备。


作为重大让步,美国政府同意将 OpenAI 设定的「红线」纳入合同条款,包括禁止将 AI 用于自主武器系统、国内大规模监控及关键决策领域。


今日早前Anthropic 拒绝了五角大楼开放安全限制的要求,特朗普强硬下令对其封禁

AI 解读
从加密从业者视角来看,OpenAI与美国国防部的潜在合作是一个典型的中心化AI与权力结构融合的案例,其深层逻辑涉及技术控制权、伦理边界及行业生态博弈。

技术部署层面,OpenAI坚持将模型限定于云端环境而非边缘系统(如无人机、战机),本质上是通过架构设计维持中央管控能力。云端部署允许实时监控与干预,避免模型参数泄露或本地化滥用,这与加密领域常强调的“可信执行环境”有相似逻辑——但核心区别在于,OpenAI的管控完全由中心化主体主导,而非通过密码学或分布式共识实现。

合同条款中设定的“红线”(禁止自主武器、大规模监控等)表面是伦理让步,实则反映了技术供应商对风险定价的考量。自主武器可能引发不可控的链式反应,而大规模监控会直接冲击公众信任,进而威胁商业模型的可持续性。这种通过合约条款自我约束的模式,类似于加密项目中常见的“治理代币投票决定协议参数”,但此处决策权完全集中于企业而非社区。

对比Anthropic拒绝五角大楼要求的行为,可看出AI巨头对政府合作的分歧策略。OpenAI选择“合作但设边界”,而Anthropic倾向于“先避嫌后博弈”。这种差异背后是两家公司不同的资源依赖结构:OpenAI需要政府数据与算力订单支撑其高昂的模型训练成本(参考CoreWeave的65亿美元协议),而Anthropic可能更依赖企业及C端市场。

军事AI的竞争本质是基础设施之争。美国国防部同时接入OpenAI、谷歌Gemini及xAI的Grok系统,体现出“多供应商冗余策略”,避免对单一模型产生依赖。这种分散化采购与加密生态中“多客户端实现”的理念异曲同工——但军事场景的封闭性使其更易形成联盟链式的可控生态,而非公链式的开放网络。

长期来看,中心化AI与军事综合体的结合可能加速去中心化AI的对抗性创新。相关文章中提到的AI+Crypto交叉项目(如去中心化计算、zkML)正试图通过开源模型、隐私计算和激励经济构建替代方案。但当前阶段,这些方案在算力规模与工程化程度上仍难以与中心化巨头抗衡。

最终,OpenAI此次合作揭示了AI行业的核心矛盾:技术伦理必须通过商业合约而非代码规则实现,意味着控制权仍掌握在少数实体手中。而加密从业者会更倾向于质疑:若红线条款的执行无法被独立审计,其实际效力是否取决于甲方的善意?这或许正是去中心化技术需要回答的问题。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成