BlockBeats 消息,4 月 4 日,AI 公司 Anthropic 宣布,自美国东部时间 4 月 4 日 15:00 起,将禁止通过 Claude 订阅服务接入第三方工具,包括开源项目 OpenClaw。新规要求相关功能仅可通过额外套餐或 API 按量计费使用。
此次调整意味着,大量依赖 OpenClaw 构建自动化工作流的开发者与团队,将从原本固定订阅成本模式,转向不设上限的按量付费体系,整体使用成本显著上升。部分开发者表示,原本约 20 美元/月的使用成本,可能飙升至数百甚至上千美元。
市场普遍认为,此举与 OpenClaw 创始人 Peter Steinberger 近期加入 OpenAI 有关。与此同时,Anthropic 正加速推广自有工具生态,包括 Claude 原生集成方案,以替代第三方工具链。
值得注意的是,Anthropic 此前已通过技术限制、服务条款更新及功能替代等方式逐步收紧第三方接入。本次政策被视为「最终封锁」,并将推广至更多工具。
行业分析指出,该事件反映出 AI 平台「生态收紧」趋势加剧,头部厂商正通过垂直整合强化控制力。与此同时,开发者生态面临成本不确定性与平台依赖风险上升,或进一步推动部分用户转向开放性更高的替代方案。
据 1M AI News 监测,X 用户卡比卡比(@jakevin7)发帖指控某项目组批量制造网红 AI 项目、购买 star、刷 PR,发布后数月即停止维护。帖中截图附有 CLI-Anything 和 nanobot 两个项目发布当天星标急升随即归零的数据图表,列出多个注册 2 年内只有 5 名关注者的可疑账号,并指出该组织 2 年内发布了约 86 个仓库,平均约每 10 天一个新项目。
被指控的项目组是香港大学数据智能实验室(GitHub 账号 HKUDS),旗下包括 nanobot(约 3.7 万星)、LightRAG(约 3.1 万星,EMNLP 2025 收录论文)、CLI-Anything(约 2.7 万星)等多个高星标 AI 项目。
公开回应的是 CLI-Anything 的作者 Yuhao Yang(@itsyuhao)。他否认刷 star,并将矛头转向卡比卡比本人:卡比卡比的 GitHub 账号(jackwener)正是 OpenCLI 的创建者,该项目定位与 CLI-Anything 高度相近,比 CLI-Anything 晚一周发布,目前已积累约 1.2 万星。Yang 称自己此前在外出演讲时见到投资人还热情推荐了 OpenCLI,并邀请 jackwener 加好友交流,「你从昨天开始持续诋毁我们先放出来的项目」。他引用朋友的话质问:「是不是一边骂一边抄,有点太尬了?」
双方指控目前均缺乏决定性证据:卡比卡比提供的是星标曲线异常及账号行为数据,未提供买 star 的直接证明;Yang 指出 jackwener 有竞争利益冲突,但未提供 OpenCLI 在设计上参考 CLI-Anything 的具体依据。
据 1M AI News 监测,Google Gemini CLI 发布 v0.36.0,核心新特性是 Subagents(子代理)。用户可将复杂、重复或高并发任务分派给专用代理,每个子代理在独立上下文窗口中运行,不占用主会话 token,主界面保持快速响应。
配置方式:在项目 .gemini/agents/ 目录放置配置文件即可自动激活,通过 /agents 命令管理,`@代理名` 触发。内置 @cli_help 子代理专门处理 CLI 问题,可帮助修复 MCP 服务器配置错误、安装扩展等。
此版本其他更新:
- 界面刷新:页脚 YOLO/Plan 模式等安全指示器优先级提升,不再被其他元素覆盖;窄终端下自动隐藏提示文字。
- 启动加速:支持初始化完成前排队输入,提交内容自动缓存并在准备好后执行。
- VSCode 集成:通过环境变量自动将已打开的工作区文件夹纳入 Gemini 上下文。
- 扩展命名规范:扩展提供的命令统一加 : 前缀,避免与内置命令冲突。
- 新增扩展:SonarQube(代码与安全分析)、Stitch(从文本或图片生成 UI 设计稿)。
发布公告同时提到,部分用户正遭遇响应延迟和报错问题,官方暂无修复,正在积极处理。
据 1M AI News 监测,OpenAI AGI 部署部门 CEO Fidji Simo 宣布因体位性直立性心动过速综合征(POTS)病情加重,将休假数周接受新治疗。她在内部信中写道:「我一再推迟医学检查和新疗法,只为完全专注于工作、不缺一天班,如今看来我确实撑过头了。」这是她去年 8 月加入 OpenAI 以来首次休假。病假期间,联合创始人兼总裁 Greg Brockman 接管产品职责,CSO Jason Kwon、CFO Sarah Friar 和首席营收官 Denise Dresser 共同负责日常运营。
同一天,COO Brad Lightcap 正式转岗,不再主管日常运营,转而专注特殊项目,首要任务是推进 OpenAI 与私募股权机构合作、向其被投企业销售 AI 工具,直接向 CEO Sam Altman 汇报。OpenAI 表示暂无任命新 COO 的计划,Lightcap 原有商业职责由前 Slack CEO Dresser 接管。首席营销官 Kate Rouch 因患癌离职,计划康复后以缩减职能返回;前 Meta CMO、过去一年担任 OpenAI 营销顾问的 Gary Briggs 将临时主管营销,直至找到继任者。
三项变动集中在同一天宣布,时间节点敏感。就在本周,OpenAI 刚以 8520 亿美元估值完成 1220 亿美元融资,Altman 此前在内部表示 Simo 将主持 OpenAI 上市后的财报电话会议。Simo 任职八个月,是 OpenAI 产品整合的核心推手,从关停 Sora 到整合 ChatGPT 与 Codex 打造「超级应用」均由她主导。她的短期缺席叠加 COO 一职悬空,在 IPO 窗口期给高管层稳定性叙事增加了变数。
据 1M AI News 监测,Anthropic 宣布,微软 365 连接器现已向所有 Claude 订阅方案开放。用户可将 Outlook 邮件、OneDrive 文档和 SharePoint 文件直接接入 Claude 对话,无需切换应用即可在对话中调取工作数据。连接入口位于 claude.ai/customize/connectors。
[原文链接]据 1M AI News 监测,Meta 已暂停与数据标注及训练数据供应商 Mercor 的合作,暂停期限未定。事件起因是 Mercor 遭遇一场安全事故,可能导致与 OpenAI、Anthropic 等 AI 实验室相关的部分训练数据和项目信息暴露。
Mercor 为多家头部 AI 公司组织大规模外包团队,生产定制化、保密性极高的模型训练数据。这类数据通常涉及模型训练方式、任务设计和评估流程,因此一旦泄露,虽然未必直接造成用户数据风险,但可能暴露 AI 厂商的关键研发方法。OpenAI 已确认正在调查该事件,同时强调不影响 OpenAI 用户数据;Anthropic 暂未回应。
据 1M AI News 监测,阿里巴巴、字节跳动和腾讯已向华为批量采购昇腾 950PR,订单规模合计数十万颗,三家公司计划在 DeepSeek V4 发布后通过旗下云服务分发该模型并集成至 AI 应用。这轮集中采购推动昇腾 950PR 价格在近几周上涨 20%,该芯片本月开始量产。
与此同时,DeepSeek 在 V4 发布前只向华为等中国芯片公司开放了提前接触窗口,拒绝英伟达参与——通常情况下,芯片公司会在大型模型发布前获得预先接触权以准备配套软件。这意味着国产芯片在 V4 公开发布前占有软件适配先机。路透社此前率先报道了英伟达遭拒一事。DeepSeek 一直与华为和芯片设计公司寒武纪合作推进 V4 的硬件适配工作。
V4 原计划今年 2 月发布,将模型从英伟达架构迁移至华为芯片需要重写底层代码并反复测试,是延迟的主要原因之一。目前 DeepSeek 还在开发两个额外的 V4 变体,各自针对不同能力维度优化,均为中国芯片设计。
英伟达 H20 此前被中国企业广泛用于运行 DeepSeek 模型,但中国政府已禁止大型科技公司采购该芯片。更强大的 H200 能否进入中国市场仍不明朗。在可选项极为有限的情况下,华为几乎是国内企业在 V4 发布前集中备货的唯一出口。
据 1M AI News 监测,Anthropic Claude Code 负责人 Boris Cherny 表示,自 2026年4月4日 12:00 PT(北京时间 2026年4月5日 03:00)起,OpenClaw 等第三方工具将不再计入 Claude 订阅内额度。用户后续若继续通过 Claude 账号在这类工具中使用服务,需要改走 extra usage 预付费额度,或直接使用 Claude API key。Anthropic 给出的解释是,订阅产品并非为这类第三方工具的高强度使用模式设计,公司需要更有节制地分配容量,优先保障官方产品与 API 用户。
[原文链接]BlockBeats 消息,4 月 3 日,据《纽约邮报》报道,Meta 正在硅谷裁减数百名员工,同时这家科技巨头正在大举投资人工智能,并考虑削减超过 20% 的员工总数。根据最新的州政府备案文件,这家 Facebook 母公司将在旧金山湾区裁减近 200 名员工。裁员将影响加利福尼亚州伯灵格姆的 124 名员工,以及附近桑尼维尔的 74 名员工。根据文件显示,这些裁员将于 5 月下旬生效,所有受影响岗位将被永久取消。
专家表示,此举表明 Meta 正在进行重大战略转型——从以大量人力为主的运营模式,转向以机器驱动的系统。Meta 最近的人工智能相关布局包括计划在德克萨斯州埃尔帕索投资 100 亿美元建设数据中心。
Meta 还在考虑更大幅度的裁员。高级员工已被告知,要为可能影响公司超过 20% 员工的裁员做好准备——约 1.5 万名员工。针对这一计划,Meta 发言人表示:「这是一则关于理论性方案的推测性报道。」
若裁员成行,这将是自 2022 年和 2023 年扎克伯格推动公司「效率年」期间裁减 2 万多名员工以来,Meta 最大规模的裁员。在一次 Meta 财报电话会议上,扎克伯格表示,由于人工智能工具的应用,Meta 开始「看到那些过去需要大团队才能完成的项目,现在由一个非常有才华的人就能完成」。
[原文链接]据 1M AI News 监测,Twitter 与 Block 联合创始人 Jack Dorsey 推荐了 mesh-llm,一个将闲置 GPU 组成点对点网络、协同运行开源大模型的工具。项目由 Block 应用 AI 团队首席工程师 Michael Neale 开发,是 Block 开源 AI Agent 平台 Goose 生态的一部分,MIT 许可证,Rust 编写。
mesh-llm 的核心逻辑:放得下就单机满速跑,放不下就自动分布。Dense 模型按层切分做流水线并行,MoE 模型(如 Qwen3、GLM、DeepSeek)按专家分片,每个节点独立推理,节点间零流量。实测数据坦诚:GLM-4.7-Flash(17GB)单机 68 tok/s,2 节点 WiFi 分片降至 21 tok/s,3 节点降至 12-13 tok/s,跨城市网络(约 20ms 延迟)为 10-25 tok/s。速度损耗是真实的,但它的目标用户是想跑 142GB 的 Qwen3-235B 或 138GB 的 MiniMax M2.5 却只有一张 24GB 显卡的人——对他们来说,选项不是「快」还是「慢」,而是「能跑」还是「根本跑不了」。
这条路技术上走得通,根本原因在于推理和训练的通信模式截然不同。分布式训练每一步需要同步全部梯度,通信量巨大,对带宽和延迟的要求是数据中心级别;推理的节点间只需传激活值,通信量低得多,而且延迟只影响首 token 时间,不影响每个 token 的吐出速度。这也是为什么「用全球闲置 GPU 训练前沿模型」至今走不通,而 mesh-llm 可以。