据 1M AI News 监测,苏黎世联邦理工学院博士后高健扬发布公开信,指控谷歌 ICLR 2026 论文 TurboQuant 对其先行工作 RaBitQ 的描述存在三项严重问题。高健扬是 RaBitQ 的第一作者,该算法于 2024 年发表于数据库顶级会议 SIGMOD,核心方法是在量化前施加随机旋转(Johnson-Lindenstrauss 变换),并已严格证明达到渐近最优误差界,曾受邀在理论计算机顶级会议 FOCS 的 Workshop 上报告。
三项指控分别为:
1. 方法相似性回避:TurboQuant 的核心方法同样采用随机旋转,但论文将 RaBitQ 归类为「基于网格的 PQ」,系统性地省略了两者在方法上的直接关联。ICLR 审稿人曾独立指出两种方法都使用随机投影并要求补充讨论,TurboQuant 团队不仅未补充,反而将正文中对 RaBitQ 的描述移至附录
2. 理论结果失实:论文在无任何论据的情况下,将 RaBitQ 的理论保证定性为「次优」(suboptimal),归因于「分析较松」。RaBitQ 扩展版论文已证明其误差界达到 Alon-Klartag(FOCS 2017)给出的渐近最优界
3. 实验对比不公:TurboQuant 使用自行翻译的 Python 代码在单核 CPU 上测试 RaBitQ(关闭多线程),却用 NVIDIA A100 GPU 测试自身算法,导致 RaBitQ 速度被报告慢了数个数量级,且未在论文中披露这一设置
高健扬披露,TurboQuant 第二作者 Majid Daliri 于 2025 年 1 月主动联系 RaBitQ 团队请求协助调试其基于 RaBitQ C++ 代码翻译的 Python 版本,2025 年 5 月的邮件中亲自确认了实验条件的不公平设置,并表示已将 RaBitQ 团队的理论澄清告知全体共同作者。但此后 TurboQuant 论文在投稿、审稿、接收直至谷歌官方大规模推广的全过程中,上述问题始终未修正。
RaBitQ 团队已在 ICLR OpenReview 发布公开评论,并向 ICLR 大会主席和道德委员会提交正式投诉。TurboQuant 第一作者 Amir Zandieh 回复称愿修正第二和第三项问题,但拒绝补充方法相似性讨论,且仅同意在 ICLR 2026 会议结束后修正。第三方研究者 Jonas Matthias Kübler 也在 OpenReview 独立指出,论文与谷歌博客在速度基准(PyTorch vs JAX)和量化基线(FP32)上口径不一致。TurboQuant 此前经谷歌官方大规模宣传后,曾引发 Micron、Western Digital 等存储芯片股集体下跌。
BlockBeats 消息,3 月 28 日,Ripple Labs 宣布,将在 XRP Ledger 引入 AI 驱动的安全体系,通过机器学习工具贯穿代码审查、对抗测试及漏洞发现全过程,以应对机构级应用增长带来的安全挑战。
据披露,Ripple 已组建 AI 辅助「红队」,通过模糊测试(fuzzing)和自动化对抗测试模拟攻击行为,目前已发现超过 10 个漏洞,并正在优先修复。公司表示,此举将使安全机制从「被动修复」转向「主动发现」。
在开发层面,Ripple 计划对 XRPL 代码结构进行现代化升级,同时提高协议变更标准,要求关键更新必须通过多重独立安全审计,并扩大漏洞赏金及社区协作范围。
值得注意的是,下一版本 XRPL 将不引入新功能,完全聚焦漏洞修复与系统加固,凸显安全优先级显著提升。该举措正值 Ripple 加速拓展机构业务,包括稳定币及现实世界资产(RWA)应用场景,对底层账本安全性提出更高要求。
据 1M AI News 监测,华为诺亚方舟实验室主任、盘古大模型负责人王云鹤在朋友圈宣布离职。他在告别信中写道:「8 年了,准确来说是 9 年了(2017 年北京第一个实习生),怀着不舍的心告别曾经奋斗过的地方。」他未透露具体去向。量子位报道称,王云鹤将投身 Agent 创业,目前已在进行融资。
王云鹤出生于 1991 年,北京大学博士,师从许超教授和陶大程教授。2017 年以实习生身份进入诺亚方舟实验室,2018 年博士毕业后正式入职,此后历任高级工程师、主任工程师、技术专家,2021 年底升任算法应用部部长,2025 年接任诺亚方舟实验室主任,成为盘古大模型负责人。学术方面,王云鹤 Google Scholar 被引数超 3.3 万次,h-index 为 68,被引最高的论文为与韩凯、田奇等人合作的 GhostNet,还曾获华为「十大发明」奖。
BlockBeats 消息,3 月 28 日,OpenAI 宣布,为回馈首批 Pro 订阅用户,将推出限量版纪念收藏钢笔。该礼品仅向前 4000 名填写申请表并完成登记的 Pro 用户开放。
官方表示,提交表单并不保证最终获得资格,且由于物流限制,部分国家或地区可能无法提供配送服务。此次活动被视为对早期高价值用户的专属回馈。
据 1M AI News 监测,一份 Meta 内部文件显示,公司正在为各业务部门设定具体的 AI 工具使用目标,这是 CEO 扎克伯格推动 Meta 成为「AI 原生」公司的最新举措。
文件中最激进的指标来自负责核心创意体验的 Creation 团队:2026 年上半年,65% 的工程师须使用 AI 完成 75% 以上的提交代码。可扩展机器学习团队(Scalable ML)则将 2026 年 2 月的目标设为 50% 至 80% 的代码由 AI 辅助完成,但一位高级工程经理备注称「我们并未通过指标追踪此项」。
公司层面,文件列出了覆盖 Messenger、WhatsApp、Facebook 等核心产品的 2025 年第四季度目标:80% 的中高级工程师须采用 DevMate、Metamate 和谷歌 Gemini 等 AI 工具(侧重「工具采用」而非 AI 生成代码比例),55% 的代码变更须为「智能体辅助」完成。目前尚不清楚这些目标是否与绩效考核挂钩。
CTO Andrew Bosworth 本周宣布将亲自负责 Meta 的「AI for Work」项目,推动内部 AI 工具的全面采用。部分 Reality Labs 员工已被重新授予「AI Builder」「AI Pod Lead」「AI Org Lead」等新头衔,反映公司正在向更小团队、更扁平架构转型。Meta 发言人称,绩效体系侧重的是 AI 工具带来的实际成效,而非单纯的使用率。
据 1M AI News 监测,一份 Meta 内部文件显示,公司正在为各业务部门设定具体的 AI 工具使用目标,这是 CEO 扎克伯格推动 Meta 成为「AI 原生」公司的最新举措。
文件中最激进的指标来自负责核心创意体验的 Creation 团队:2026 年上半年,65% 的工程师须使用 AI 完成 75% 以上的提交代码。可扩展机器学习团队(Scalable ML)则将 2026 年 2 月的目标设为 50% 至 80% 的代码由 AI 辅助完成,但一位高级工程经理备注称「我们并未通过指标追踪此项」。
公司层面,文件列出了覆盖 Messenger、WhatsApp、Facebook 等核心产品的 2025 年第四季度目标:80% 的中高级工程师须采用 DevMate、Metamate 和谷歌 Gemini 等 AI 工具(侧重「工具采用」而非 AI 生成代码比例),55% 的代码变更须为「智能体辅助」完成。目前尚不清楚这些目标是否与绩效考核挂钩。
CTO Andrew Bosworth 本周宣布将亲自负责 Meta 的「AI for Work」项目,推动内部 AI 工具的全面采用。部分 Reality Labs 员工已被重新授予「AI Builder」「AI Pod Lead」「AI Org Lead」等新头衔,反映公司正在向更小团队、更扁平架构转型。Meta 发言人称,绩效体系侧重的是 AI 工具带来的实际成效,而非单纯的使用率。
据 1M AI News 监测,谷歌即将达成一项协议,为数据中心开发商 Nexus Data Centers 在德克萨斯州的一个大型项目提供资金支持,该项目价值超过 50 亿美元,建成后将租赁给 Anthropic 使用。建设贷款预计很快敲定。
该项目占地约 2800 英亩,预计最早 2026 年底交付约 500 兆瓦容量,后续还将大幅扩容。选址靠近主要天然气管道,Nexus 计划通过自有燃气轮机直接供电,而非依赖公共电网,以规避电网接入排队延迟并降低用电高峰时段的成本。
谷歌目前通过 Google Cloud 向 Anthropic 提供其定制 TPU 芯片用于大模型训练,双方已有深度云计算合作关系。此次为 Anthropic 租用的数据中心提供基础设施融资,是这一合作的进一步延伸。
据 1M AI News 监测,谷歌员工正在使用一款名为 Agent Smith 的内部 AI 智能体,可自动完成编程等多项任务。该工具因使用人数激增,已被迫限制访问权限。名字大概率致敬《黑客帝国》中的反派特工 Smith。
Agent Smith 基于谷歌已有的智能体编程平台 Antigravity 打造,可调用多种内部系统,今年早些时候上线。与此前的 AI 编码助手相比,Agent Smith 能更自主地规划和执行完整工作流程,且支持异步运行,在后台独立执行任务。员工无需持续操作电脑,可通过手机随时查看进度并下达指令,也可从谷歌内部聊天平台直接使用。由于接入了员工资料系统,Agent Smith 还能自动调取相关文档,省去手动查找。
谷歌联合创始人 Sergey Brin 3 月初在一场面向销售部门的全员会上表示,AI 智能体将在今年成为谷歌的重要方向,并暗示公司正在开发一款类似 OpenClaw 的工具(尚不确定是否就是 Agent Smith)。谷歌业务负责人 Philipp Schindler 在会上开玩笑说,他能分辨出 Brin 的消息什么时候是智能体代发的。
谷歌正在全面加速 AI 工具的内部采用。部分员工已被告知,AI 使用情况将纳入绩效考核。基础设施部门还在推进一个名为 Project EAT 的内部项目,旨在改善 AI 工具的采用率和标准化。谷歌发言人回应称:「我们一直在探索构建能解决实际问题的智能体的新方法,但目前没有更多可分享的信息。」
据 1M AI News 监测,快手 StreamLake 平台发布旗舰级 AI 编码模型 KAT-Coder-Pro V2,在 Agentic Coding 和前端美学生成两个方向同时升级。
Agentic Coding 方面,V2 兼容 Claude Code、Cline、Kilo、OpenCode 等 10 余种主流 AI 编码工具,并针对 OpenClaw 框架进行了专项训练与全链路优化,覆盖脚手架协议理解、工具链调用和长链路执行稳定性。
前端美学生成是此次升级的重点。快手团队同步推出自研「KAT 美学 Benchmark」,采用专业设计师人工盲测,设置 10 个独立评估维度,专门针对「无参考图创作」场景打分。在该基准下,V2 的 PPT 场景总分 57.6,领先竞品 14 至 22 分,配色单项达 78 分;Landing Page 场景总分 59.8,排名第一。相比上一代基线,PPT 均分提升 103%,Landing Page 提升 42%,元素单项提升 300%。
模型规格方面,V2 上下文长度 256K,最大输出从 V1 的 32K 提升至 80K,支持流式输出、上下文缓存、MCP 和 Function Call。API 定价为输入 2.1 元/百万 token,输出 8.4 元/百万 token,缓存写入免费,缓存读取 0.42 元/百万 token。用户可通过 StreamLake 平台 API 或 Coding Plan 订阅使用。
据 1M AI News 监测,GLM-5.1 现已面向 GLM Coding Plan 全部用户 (Lite/Pro/Max) 开放。
[原文链接]