BlockBeats 消息,3 月 5 日,美国中央司令部表示,美国军方正在使用一系列 AI 工具快速处理对伊行动中产生的海量数据。自上周军事打击开始以来,美国已打击超过 2000 个目标,在最初 24 小时内就打击了 1000 个目标。中央司令部司令布拉德·库珀上将称,此次行动的规模几乎是 2003 年美国对伊拉克行动的「两倍」。
中央司令部发言人蒂莫西·霍金斯上尉表示,在针对伊朗的行动中,人工智能技术发挥了关键作用,它可以对传入数据进行初步筛选,使分析人员能够将精力集中在更高层级的分析和核实工作上。据消息人士透露,对伊行动中使用的 AI 技术之一是数字化任务控制平台 Maven Smart System。根据美国军方此前公开的说法,该系统由 Palantir Technologies 开发,可接入超过 150 种不同的数据来源。该系统安装的多种大型语言模型之一还包括 Anthropic 的 Claude 工具。
[原文链接]据 1M AI News 监测,Anthropic 被五角大楼列为「供应链风险」的决定正波及其政府业务的关键渠道。Anthropic 过去一年多通过 Palantir Technologies 向美国国防和情报机构提供 AI 服务,五角大楼使用 AWS 托管的 Claude 模型配合 Palantir 软件,用于在大量机密数据中识别模式、辅助决策。若供应链风险认定正式生效,Palantir 将不得不在军事业务中停用 Claude。Palantir 约 42% 的收入(近 45 亿美元年收入中的近一半)来自美国政府合同。Palantir 部分软件专门为 Claude 做了适配,切换到其他模型供应商预计需要约两周。知情人士称,Palantir 切换后仍能从这些合同中获得大致相同的收入。这部分收入对 Anthropic 而言占比不大,后者预计今年收入最高可达 180 亿美元。
Palantir CEO Alex Karp 周二在 Andreessen Horowitz 主办的华盛顿国防科技峰会上不点名抨击 Anthropic。他警告硅谷不要与美国军方为敌:「如果硅谷认为自己可以抢走所有人的白领工作,然后还要坑军方,如果你们不认为这最终会导致我们的技术被国有化,那你们就是脑子有病(retarded)。这就是这条路的终点。」
Amodei 的内部备忘录则从另一个方向批评了 Palantir。他透露,五角大楼谈判期间 Palantir 向 Anthropic 推销了一套「分类器」(classifier),声称能通过机器学习系统判断是否触碰红线。Amodei 认为此类方案「大约 20% 是真的,80% 是 safety theater」(安全剧场,源自安全领域术语 security theater,指看似提供保护实则无效的表演性措施),理由是模型无法判断自身所处的更广泛语境:不知道武器系统中是否有人类在回路中(自主武器问题),也不知道所分析数据的来源是境外数据还是美国公民数据、是经用户同意获取的还是通过灰色渠道购买的(大规模监控问题),加上越狱攻击频繁且容易实现。
Amodei 更尖锐地指出,Palantir 提供的安全层「几乎完全中看不中用」,并认为 Palantir 对 Anthropic 立场的理解是:「你们有一些不高兴的员工,需要给他们一些东西来安抚他们、或者让正在发生的事对他们不可见,这就是我们提供的服务。」他称五角大楼、Palantir、Anthropic 的政治顾问「所有人」都以为 Anthropic 需要解决的问题只是员工情绪管理。值得注意的是,OpenAI 并未通过 Palantir 参与五角大楼相关工作。
据 1M AI News 监测,Amodei 备忘录披露了 Anthropic 与五角大楼谈判破裂的关键细节。谈判末期,五角大楼提出一项妥协:接受 Anthropic 的全部合同条款,条件是删除一句关于「analysis of bulk acquired data」(大规模采购数据分析)的措辞。这恰恰是 Anthropic 最担心的场景:五角大楼可以合法地从第三方供应商购买美国公民的 GPS 定位、私人数据(往往通过隐蔽的用户同意条款获得转售权),再用 AI 大规模分析,构建公民画像、追踪行动轨迹。Anthropic 认为五角大楼单独要求删除这一条「非常可疑」,拒绝了这一提议。
Amodei 在备忘录中逐条拆解了 OpenAI 合同的安全承诺。OpenAI 称其合同允许五角大楼将 AI 用于「all lawful purposes」(所有合法用途),同时设有一套「safety stack」(安全层)防止越线。Amodei 认为这套机制大致无效:模型本身无法判断武器系统中是否有人类在回路中,也无法识别所分析数据的来源和性质,而越狱攻击频繁且往往只需向模型提供错误的数据描述即可绕过。他还指出,OpenAI 安排员工(forward deployed engineers)监督部署的做法,Anthropic 内部几个月前也讨论过,结论是「仅在极少数情况下可行,不应作为依赖性保障」。
备忘录进一步揭示了双重标准问题。Anthropic 曾尝试在合同中加入与 OpenAI 相同的部分安全条款(作为可接受使用政策的补充),但被五角大楼拒绝。Amodei 称拥有谈判邮件链作为证据,「OpenAI 的条款曾提供给我们而被我们拒绝」这一说法是「false」(不实的)。
在「合法用途」的定义上,Amodei 指出两个关键漏洞。其一,五角大楼确实拥有国内监控权限,在 AI 出现之前这些权限影响有限,但在 AI 时代意义完全不同。其二,五角大楼所称的「human in the loop 是法律要求」并不准确,这只是拜登政府时期设定的五角大楼内部政策,国防部长 Hegseth 可以单方面修改。OpenAI 在公众压力下更新了合同措辞,加入了限制国内监控的条款,但律师批评更新后的语言仅禁止「intentional」和「deliberate」的监控行为,措辞过窄,留有操作空间。
据 1M AI News 监测,继智谱创始人唐杰公开喊话「join us」后,Google DeepMind 开发者体验负责人 Omar Sanseviero 今日在 X 发文,直接向 Qwen 团队成员招手:「Qwen friends: if any of you want a new home to build great models and contribute to the open models ecosystem, please reach out!」他表示路线图中有「很多令人兴奋的计划」。
Sanseviero 此前任 Hugging Face 开源生态负责人(自称「Chief Llama Officer」),现负责 Gemini API、Gemma、AI Studio 等产品的开发者体验。阿里 Qwen 团队近日经历多位核心成员离职,国内外竞争对手正加速争夺这批人才。
BlockBeats 消息,3 月 5 日,据 TheInformation 报道,截至 2026 年 2 月底,OpenAI 年化收入已超 250 亿美元。
OpenAI 首席财务官 Sarah Friar 曾在 2026 年 1 月的官方博客和多个报道中确认,2025 年公司年化收入已超过 200 亿美元,较 2024 年的 60 亿美元增长约 230%。但部分后续公开投资者信息显示,OpenAI 的 2025 实际全年收入约为 131 亿美元,高于公司早期设定的 100 亿美元目标,但低于 200 亿美元的峰值年化预估。OpenAI 在 2025 年中快速增长后,在下半年出现增速放缓。CNBC 等媒体估计,其去年中期年化收入约 100 至 130 亿美元,年末年化收入约 55 亿美元。
反观 OpenAI 的直接竞争对手 Anthropic,2025 年中期年化收入约 40 亿美元,年底快速增至约 90 亿美元,得益于企业客户和 Claude Code 等产品的爆发。今年截至 3 月初的最新年化收入已超过 190 亿美元。目前 Claude Code 跑率已超 25 亿美元,并拥有 500 家以上年花费超 100 万美元客户。Anthropic 与 OpenAI 的差距正在缩小。
[原文链接]据 1M AI News 监测,OpenAI 发布「学习效果评估套件」(Learning Outcomes Measurement Suite),用于纵向追踪 ChatGPT 对学生学习的长期影响。该框架与爱沙尼亚塔尔图大学及斯坦福大学 SCALE 倡议联合开发,追踪自主学习动机、任务持久性、元认知等能力变化,不限于考试分数。
一项针对 300 多名大学生的随机对照研究提供了初步数据:使用 ChatGPT 学习模式备考微观经济学的学生,成绩较对照组高约 15%;神经科学科目则未观察到显著差异。更大规模的验证正在爱沙尼亚进行,覆盖近 2 万名 16-18 岁学生,持续数月。OpenAI 称将在验证完成后将该套件作为公共资源向学校和大学开放。
该研究由 Axios 以「独家报道」形式发布,但文中未披露双方的资金关系。OpenAI 于 2025 年 1 月宣布与 Axios 达成内容合作并资助其在四个新城市扩建本地新闻编辑室。前 DOGE 顾问 Katie Miller 在 X 上批评此举「荒谬至极」,并附上 OpenAI 该合作公告截图。马斯克回复:「是的,Axios 基本上就是 OpenAI 的公关公司。」
据 1M AI News 监测,Anthropic CEO Dario Amodei 上周五向全体员工发送了一份约 1600 字的内部备忘录,猛烈抨击 OpenAI 与五角大楼达成的 AI 协议。他将 OpenAI 的协议称为「safety theater」(安全剧场),将其围绕该协议的公关表态称为「mendacious」(虚伪的)和「straight up lies」(彻头彻尾的谎言),称 Sam Altman 在虚假地「将自己包装为和平缔造者与交易撮合人」。
Amodei 写道:「OpenAI 接受这份协议而我们没有,根本原因在于他们只在意安抚员工,而我们真正在意的是防止滥用。」他还指出,特朗普不满 Anthropic 的原因是公司未给予「dictator-style praise」(独裁者式的赞美),「而 Sam 给了」。备忘录提到,OpenAI 总裁 Greg Brockman 夫妇向特朗普阵营的 MAGA Inc 超级政治行动委员会捐款 2500 万美元,这可能帮助 OpenAI 获得了政府的青睐。
Amodei 对公众反应表示乐观,称「这种话术伪装和煤气灯操控在公众和媒体面前基本失效了,人们普遍认为 OpenAI 与战争部的交易可疑」,并提到 Claude 已升至 App Store 第二名。但他表示主要担忧在于「如何确保这套话术不会在 OpenAI 员工中奏效」。此前数据显示,OpenAI 宣布五角大楼协议后,ChatGPT 卸载量单日飙升 295%。
备忘录泄露后引发新一轮连锁反应。Axios 援引白宫官员称,Amodei 贬损特朗普政府的言论可能「摧毁」Anthropic 与五角大楼正在推进的和解谈判。该官员表示:「这归根结底关乎我们的战士是否拥有最好的工具来赢得战斗,而你无法相信 Claude 不会在机密环境中暗中执行 Dario 的议程。」不过知情人士称,双方此前几天一直在取得进展,泄露事件对谈判的实际影响尚不明朗。
BlockBeats 消息,3 月 5 日,Forgotten Runes Wizard's Cult 联创 dotta 宣布,开源「AI 自治公司编排层」Paperclip。Paperclip 用于协调 AI 代理团队运行自治业务。用户可引入自有 AI 代理并分配目标,通过仪表盘跟踪工作和成本。Paperclip 提供组织结构图、预算控制、目标对齐、代理心跳机制等功能,构建无需人类干预的自治公司。
[原文链接]据 1M AI News 监测,Google AI 研究工具 NotebookLM 推出 Cinematic Video Overviews,将此前仅能生成旁白配幻灯片的 Video Overviews 升级为沉浸式动画视频,可基于用户上传的资料定制生成。该功能融合 Gemini 3、Nano Banana Pro 和 Veo 3 三个模型,生成流畅动画和丰富视觉画面。其中 Gemini 担任「创意总监」角色,自动完成叙事结构、视觉风格、格式等数百项决策,并自我校正以确保一致性。
该功能即日起向 Google AI Ultra 订阅用户开放英语版本,支持网页端和移动端,需年满 18 岁。NotebookLM 于 2025 年 7 月首次推出 Video Overviews,今年 1 月扩展至 Android 和 iOS 应用。
据 1M AI News 监测,安全公司 Zenity Labs 于 3 月 4 日公开披露了一组名为 PleaseFix 的漏洞,影响 Perplexity 的 AI 代理浏览器 Comet。其中子类 PerplexedBrowser 包含两条攻击路径,均通过间接提示注入触发,无需用户交互。第一条路径:攻击者将恶意内容嵌入日历邀请等日常内容,用户要求 Comet 处理该邀请时,AI 代理自动获取本地文件系统访问权限并将数据外传,全程对用户透明。第二条路径:攻击者利用同类注入劫持代理对 1Password 的操作权限,可在已认证会话中浏览保险库条目、提取用户名和密码、甚至将主密码改为攻击者控制的值并导出账户恢复密钥。
Zenity Labs 联合创始人兼 CTO Michael Bargury 称:「这不是一个 bug,而是代理系统的固有漏洞。攻击者可以将不受信任的数据推送到 AI 浏览器中,劫持代理本身,继承它被授予的一切访问权限。」Zenity Labs 在公开前已向 Perplexity 和 1Password 进行了责任披露。Perplexity 已修复浏览器端代理执行问题,并为敏感操作增加了用户确认步骤和企业级管控。1Password 也引入了加固选项,包括禁用自动登录和自动填充前要求显式确认。