header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP
全部
预测市场
AI
链上侦探
融资
2026-04-03
订阅推送
自动更新

BlockBeats 消息,4 月 3 日,据《纽约邮报》报道,Meta 正在硅谷裁减数百名员工,同时这家科技巨头正在大举投资人工智能,并考虑削减超过 20% 的员工总数。根据最新的州政府备案文件,这家 Facebook 母公司将在旧金山湾区裁减近 200 名员工。裁员将影响加利福尼亚州伯灵格姆的 124 名员工,以及附近桑尼维尔的 74 名员工。根据文件显示,这些裁员将于 5 月下旬生效,所有受影响岗位将被永久取消。


专家表示,此举表明 Meta 正在进行重大战略转型——从以大量人力为主的运营模式,转向以机器驱动的系统。Meta 最近的人工智能相关布局包括计划在德克萨斯州埃尔帕索投资 100 亿美元建设数据中心。


Meta 还在考虑更大幅度的裁员。高级员工已被告知,要为可能影响公司超过 20% 员工的裁员做好准备——约 1.5 万名员工。针对这一计划,Meta 发言人表示:「这是一则关于理论性方案的推测性报道。」


若裁员成行,这将是自 2022 年和 2023 年扎克伯格推动公司「效率年」期间裁减 2 万多名员工以来,Meta 最大规模的裁员。在一次 Meta 财报电话会议上,扎克伯格表示,由于人工智能工具的应用,Meta 开始「看到那些过去需要大团队才能完成的项目,现在由一个非常有才华的人就能完成」。

[原文链接]

1M AI News 监测,Twitter 与 Block 联合创始人 Jack Dorsey 推荐了 mesh-llm,一个将闲置 GPU 组成点对点网络、协同运行开源大模型的工具。项目由 Block 应用 AI 团队首席工程师 Michael Neale 开发,是 Block 开源 AI Agent 平台 Goose 生态的一部分,MIT 许可证,Rust 编写。

mesh-llm 的核心逻辑:放得下就单机满速跑,放不下就自动分布。Dense 模型按层切分做流水线并行,MoE 模型(如 Qwen3、GLM、DeepSeek)按专家分片,每个节点独立推理,节点间零流量。实测数据坦诚:GLM-4.7-Flash(17GB)单机 68 tok/s,2 节点 WiFi 分片降至 21 tok/s,3 节点降至 12-13 tok/s,跨城市网络(约 20ms 延迟)为 10-25 tok/s。速度损耗是真实的,但它的目标用户是想跑 142GB 的 Qwen3-235B 或 138GB 的 MiniMax M2.5 却只有一张 24GB 显卡的人——对他们来说,选项不是「快」还是「慢」,而是「能跑」还是「根本跑不了」。

这条路技术上走得通,根本原因在于推理和训练的通信模式截然不同。分布式训练每一步需要同步全部梯度,通信量巨大,对带宽和延迟的要求是数据中心级别;推理的节点间只需传激活值,通信量低得多,而且延迟只影响首 token 时间,不影响每个 token 的吐出速度。这也是为什么「用全球闲置 GPU 训练前沿模型」至今走不通,而 mesh-llm 可以。

[原文链接]

1M AI News 监测,迪士尼发布的研究论文显示,迪士尼展示的 Olaf 机器人由英伟达和谷歌提供 AI 技术,但驱动颈部和腿部运动的零件来自中国机器人公司宇树科技。英伟达 CEO 黄仁勋在 3 月的播客中称,中国的微电子、电机、稀土和磁铁「是全球最好的」,「全球机器人产业将不得不大量依赖它」。

特斯拉正在中国组建团队对接 Optimus 人形机器人量产供应商,员工已与传感器、电机及零部件厂商接触,包括无芯电机和关节减速器。去年中国收紧稀土磁铁出口管制后,特斯拉被迫减少 Optimus 中的稀土磁铁用量。Figure AI 早期机型的关节、传感器和电机也使用中国供应商,其最新机型 Figure 03 在 3 月白宫活动上亮相时自称「由美国制造」。部分中国供应商已在泰国等东南亚国家预备产能,规避美国对华关税。

摩根士丹利估计,中国供应链可将人形机器人制造成本降低最多三分之二。调研机构 TrendForce 数据显示,控制运动的零件(专用电机和齿轮)占机器人总成本约 55%。去年,中国企业推出 28 款人形机器人,约为美国企业的三倍。宇树科技计划今年赴上海 IPO,拟募资约 6.1 亿美元,该公司称 2025 年已出货逾 5500 台人形机器人。

[原文链接]

1M AI News 监测,AI 编程代理公司 Factory AI 发布 Legacy-Bench,专门测试 AI 编程工具在「遗留代码」上的真实能力。所谓遗留代码,是指那些写于几十年前、至今仍在运行的老程序,每天处理全球金融结算、电话路由、保险理赔的软件大量属于这一类,语言包括 COBOL、Fortran 和 Java 7。

问题在于,现有的编程 AI 基准测试(比如 SWE-bench)全部基于 Python、JavaScript 等现代语言。而懂这些老代码的工程师正在退休,替补速度跟不上。

测试结果出乎意料。同一批被认为「能力很强」的前沿模型,在常规基准上通过率超 70%,放到 Legacy-Bench 上最高只过了 42.5%,最低 16.9%。更刺眼的是:在 97% 的失败案例里,AI 认为自己已经完成了任务。

问题出在反馈机制上。Python 程序跑错了会报错,AI 能根据错误信息修正。COBOL 程序跑错了往往没有任何报错,输出看起来也「正常」,AI 根本不知道自己算错了。一道薪资处理任务中,AI 把医保扣款算成 275 美元而非正确的 125 美元,错误级联到所有汇总项,但 29 个测试中仍有 24 个通过,AI 交卷时满以为做对了。

[原文链接]

1M AI News 监测,企业支出管理平台 Ramp 的研究部门 Ramp Labs 上线了 Steer AI,一个让任何人都能往大模型里「注入」概念的实验工具。原理类似 Anthropic 此前的 Golden Gate Claude:不重新训练模型,只在推理时悄悄修改模型内部的激活值,让它把任何话题都往你指定的概念上扯。注入「存在主义」,问它天气怎么样,它会解释气温波动跟存在焦虑的关系。

开发过程有个有趣的发现。团队最初用 Qwen 2.5 7B 实验,发现把注入强度推太高,模型会突然在英文句子里冒出中文。原因是 Qwen 的多语言预训练数据中中文占比很高,英语能力只是后来微调叠上去的一层。一旦内部激活被大力干扰,模型就会「退回」到底层的中文预训练状态。一个被注入「pizza」概念的模型,有时会说到一半突然切换语言。

后来换成 Gemma 3 27B-IT,这个问题消失了。Gemma 即使在高强度下退化,仍然保持英文输出。团队在 62 层网络中做了 1,280 次对比实验,发现注入位置至关重要:太早会破坏语法,太晚会让输出直接乱掉。Gemma 每 5 层局部注意力搭配 1 层全局注意力,实验显示这些全局注意力层是最佳注入点,能让概念真正融入推理而非只是表面换词。最终选了 5 个这样的层,开放低、中、强三档强度。

工具已上线,可在 labs.ramp.com/steer-ai 直接体验,预置了「Elon Musk」「存在主义」「华尔街」等概念,也可以自己输入任意词。

[原文链接]

1M AI News 监测,Orchestra 创始人 Zechen Zhang 宣布推出 Orchestra,官方定位为首个 AI 原生研究 IDE(集成开发环境)。他在推文中写道:「每个开发者都有 IDE,研究者从没有过。我们不需要又一个研究 Agent,而是一个由 AI 驱动的全栈工作站。」

这一产品方向源于亲身经历。Zechen Zhang 此前构建了全自主 AI 科学家框架 Curie,但在用户研究和自身使用中发现全自主路线局限明显:AI 偏离既定研究路径,输出结果难以用于真实课题。他在博客中写道:「这些系统像演示,不是工具。」Orchestra 转而以人机协同为核心,由 AI 处理繁琐工作,研究者在每个关键步骤保持掌控权。

平台覆盖研究全流程:文献检索与互动提问、方向探索与整理、实验设计与代码执行、结果分析,全部在同一工作区完成。区别于普通对话 AI 的是长期记忆:Orchestra 持续记录研究过程中的每次死路、每个突破和未跟进的直觉,数周乃至数月后仍可调取历史上下文帮助研究者重新定向。目前免费开放,无需信用卡。

[原文链接]

1M AI News 监测,摩根士丹利 AI 研究团队开源了 AlphaLab,一个能自己跑科研的 Agent 系统。给它一个数据集和一个目标,它自己探索数据、设计评估方案、在 GPU 集群上反复实验。全程不需要人介入,一次完整实验的 API 费用是 150 美元至 200 美元。

最直观的结果来自 GPU 编程优化:PyTorch 自带的 torch.compile 是目前开发者最常用的 GPU 加速工具,AlphaLab 写出的自定义 GPU 内核平均快 4.4 倍,最高单任务达 91 倍。它还学会了什么路不该走——手写卷积内核总是输给英伟达的 cuDNN 库,这条教训被记进了系统的「Playbook」,后续实验不再浪费预算重踩同一个坑。

Playbook 是 AlphaLab 最有意思的设计。它从空白起步,每次实验结束都把有效策略和死路一并记下来,后续实验直接继承,越跑越聪明。另外两个测试领域结果:LLM 预训练验证损失比单次 baseline 低 22%,交通流量预测误差低 23% 至 25%。

论文同时用 GPT-5.2 和 Claude Opus 4.6 跑实验,揭示了一个对实际工程有参考价值的规律:两个模型在每个任务上都找到了方向完全不同的解,没有一个全面压过另一个。CUDA 优化 GPT-5.2 领先,LLM 预训练和交通预测 Opus 4.6 领先。连 Opus 4.6 和 Sonnet 4.6 在同一任务上也会探出架构差异明显的不同方案。用多个模型并行跑实验,覆盖的搜索空间比只用一个大得多。

[原文链接]

1M AI News 监测,今年 2 月加入谷歌 Labs 的 AI 音乐创作平台 ProducerAI 宣布纳入谷歌 AI 订阅计划,Google AI Plus、Pro 和 Ultra 用户无需额外付费即可使用相应档位功能:AI Plus 对应 ProducerAI Starter 档、AI Pro 对应 Plus 档、AI Ultra 对应 Member 档。免费用户同样获得 ProducerAI 免费档权限。未订阅用户可通过 one.google.com/ai 开通。

ProducerAI 支持生成歌曲、音乐视频,并提供 Spaces 功能,允许用户用自然语言创建自定义乐器和音效,模块可跨用户分享和混编。底层调用谷歌 DeepMind 的 Gemini、Lyria 3 和 Veo 等模型,所有输出内嵌 SynthID 隐式水印以标识 AI 生成内容。

[原文链接]

1M AI News 监测,AI 机器人公司 Generalist AI 发布通用机器人基础模型 GEN-1。公司宣称 GEN-1 是首个越过量产门槛的通用物理 AI 模型。在多项工业任务上,GEN-1 平均成功率达到 99%,上一代 GEN-0(2025 年 11 月发布)平均为 64%,未经预训练从零训练的对照版本仅为 19%。任务完成速度约为当前业界最优方案的 3 倍,每项任务只需约一小时的机器人操作数据完成适配。

可靠性演示涵盖六类全程无人介入的工业任务:

1. 汽车零件组装:持续一小时不中断(约 50 次循环)
2. T 恤折叠:连续 86 次
3. 维修扫地机器人:连续 200 次以上
4. 方块装箱:连续 1,800 次
5. 纸箱折叠:连续 200 次
6. 手机装壳:连续 100 次

速度方面,GEN-1 折叠纸箱仅需 12.1 秒,GEN-0 和 Physical Intelligence 旗下机器人模型 π0 在相同纸箱上均需约 34 秒,快 2.8 倍。手机装壳 15.5 秒,同样快 GEN-0 的 2.8 倍。

GEN-1 的基础模型预训练阶段完全不使用机器人数据,而是基于穿戴式设备采集的超过 50 万小时人类日常活动数据。适配新任务时只需叠加约一小时的机器人操作数据。此前超越 90% 成功率的机器人模型通常依赖大量昂贵的专用遥操作数据集,Generalist AI 认为以人类活动数据预训练的路线可扩展性更强。

公司将 GEN-1 类比为语言模型从 GPT-2 到 GPT-3 的跨越:GEN-0 证明了机器人领域存在 Scaling Law,但未达到商用水准;GEN-1 通过扩展数据和算力,并引入强化学习、多模态人类指导和新推理架构 Harmonic Reasoning,越过了量产门槛。公司承认 GEN-1 仍无法解决所有任务,但预计持续扩展将解锁更多复杂场景。早期访问合作伙伴从 4 月 2 日起可使用 GEN-1。

[原文链接]

1M AI News 监测,AI 语音公司 ElevenLabs 为其语音转录模型 Scribe v2 推出四项功能更新,已在 API 和界面中可用。

最实用的新增是内置实体脱敏:转录过程中自动识别并替换姓名、信用卡号、社保号等敏感信息,数据在写入存储前即被处理。三种替换模式可选:完全替换为 [REDACTED]、按类别标注(如 [CREDIT_CARD])、按类别编号(如 [CREDIT_CARD_1]),面向医疗、金融和客服等合规场景。

关键词提示(keyterm prompting)上限从 100 个扩至 1,000 个,扩容 10 倍,适合专业术语密集的行业。模型根据上下文判断关键词是否适用,不会盲目插入。超过 100 个关键词的请求最低计费 20 秒。

另外两项更新:No Verbatim 模式自动去除「嗯」「啊」等填充词和重复结巴,输出即为可直接使用的干净文本;印度语系与英语混用场景下,英语词汇保留拉丁字母原文而非被音译为当地文字,无需手动指定语言。

[原文链接]
查看更多
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成