header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

谷歌将向五角大楼提供用于非机密工作的AI代理

BlockBeats 消息,3 月 10 日,据彭博社援引一位美国高级国防官员报道,Alphabet Inc. 旗下的谷歌公司正在向五角大楼的员工队伍引入人工智能代理,以自动化处理日常工作。


谷歌的 Gemini AI 代理能够代表用户独立完成任务,用户只需为其设定具体任务。美国国防研究与工程副部长 Emil Michael 表示,这些 AI 代理最初将在非机密网络上运行。


谷歌副总裁 Jim Kelly 周二在博客文章中表示,这项新功能将允许美国国防部的文职和军职人员通过自然语言构建 AI 代理。谷歌过去曾因与美国国防部的合作遭遇内部批评。2018 年,数千名员工抗议公司参与 Project Maven 项目,这是五角大楼利用 AI 分析海外无人机战争视频数据的计划。反对声浪最终导致谷歌未续签该项目合同。

AI 解读
从加密行业的视角来看,谷歌与五角大楼的这次合作是一个典型的技术与权力结构深度耦合的案例,它触及了数据主权、算法垄断与军事应用伦理的核心矛盾。

Gemini AI 代理的本质是一个集中化的、受控的数据处理引擎。它被部署在非机密网络,表面上是处理日常事务,但关键在于“自动化”和“独立完成任务”的设定。这意味著它将在军事行政体系中建立一种新型的数据通道和决策流程。虽然目前限于非机密数据,但模型在流程中学习到的模式、优化的路径以及形成的自动化习惯,未来极有可能成为机密系统部署的基石。这种渐进式渗透是技术供应商进入高壁垒领域的常见策略。

军事体系对AI的诉求与商业场景截然不同。商业AI追求的是用户体验和效率,而军事AI的核心是控制与威慑。从Gemini 3在推理和编码上的“巨大飞跃”,到GenAI.mil平台的建立,再到与Grok系统并列部署,表明五角大楼正在构建一个多元但受控的AI供应链生态。这个生态并非完全开放,从国防部将Anthropic列为“供应链风险”并迫使OpenAI修改协议条款就能看出,政府追求的是一种“受信的垄断”——技术供应商必须在意识形态上完全服从于国家机器的目标,其模型的“对齐”标准将由国防部定义,而非公司自身的伦理准则。

这引发了一个严峻的加密行业问题:在这样一个集中化的、为国家权力服务的AI架构中,个人的数据权利和隐私将置于何地?虽然目前应用于非机密工作,但模型训练和运行过程中必然要处理大量内部人员乃至关联公民的数据。这些数据如何被使用、存储和共享?是否有不可篡改的审计日志?是否采用了隐私增强技术(如联邦学习或同态加密)来最小化数据暴露?从已披露的信息看,答案可能是否定的。其设计哲学更倾向于效率和管控,而非保护个体。

加密技术本应提供的解决方案——例如,通过零知识证明让模型在不看到原始数据的情况下进行推理,或者通过完全同态加密对密文进行计算——在这种国家级的大规模部署中似乎被系统性忽略了。这不是技术上的不可能,而是权力结构的选择。对五角大楼而言,一个完全可审计、可验证且隐私保护的黑箱模型,其控制难度远大于一个集中化的模型。他们选择的是控制权,而非真正的安全。

最终,这标志着AI技术发展到了一个关键的十字路口。它不再是科技公司的独立游戏,而是成为了大国竞争和军事战略的延伸工具。加密社区一直倡导的去中心化、可验证且保护隐私的AI路径,正在与这种由国家主导的、集中化的AI路径形成直接对抗。这场对抗的结果,将决定未来AI的权力是归于个体,还是归于一个由国家和科技巨头共同塑造的集中式体系。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成