header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP
全部
预测市场
AI
链上侦探
融资
2026-03-31
订阅推送
自动更新

1M AI News 监测,上海交通大学 GAIR 实验室发布 daVinci-LLM,一个 30 亿参数的语言模型,从零开始在 8 万亿 token 上训练,19 项基准测试综合得分 51.72,与参数量约为其 2.3 倍的 AI2 开源模型 OLMo-3 7B(51.65)基本持平。数学推理提升尤为显著,MATH 基准达 62.8 分,超过 OLMo-3 7B 的 39.6 分逾 23 个百分点。

与商业公司只放权重不讲细节的做法不同,daVinci-LLM 完整公开了数据处理流程、训练超参数、每 5000 步保存的中间检查点,以及 200 多组消融实验结果(包括失败的实验)。团队称,目标是将预训练从经验驱动推向循证科学。

论文提出 Data Darwinism 数据处理分级框架,将数据处理操作从基础过滤到内容合成分为 L0 至 L9 十个层级。模型训练分两阶段:第一阶段用 6 万亿 token 建立通用基础能力,第二阶段用 2 万亿 token 切换到以推理为主的数据配比,结构化问答数据在最后 1 万亿 token 中占比升至 70%。消融实验显示,提升数据处理深度对模型能力的增益与扩大数据规模同等重要,在数学推理等任务上甚至更高效:L4 级别的内容精炼在 MATH 基准上带来 7 分提升,优于单纯堆量。

[原文链接]

1M AI News 监测,小米技术官方长文称,Xiaomi MiMo-V2-Pro 在 OpenRouter 的日榜、周榜、月榜三个维度均已升至第一。官方披露,该模型最近一周 token 消耗量已突破 4 万亿,上线不到半个月累计 token 消耗量超 6 万亿。

小米还称,MiMo-V2-Pro 在 Text Arena(Arena Expert)的 Model Rank 维度已进入全球前五,仅次于 Anthropic、OpenAI 和谷歌的顶级模型。实验室维度上,小米目前位列 Text Arena(Arena Expert)全球第四、Code Arena 全球第五。

MiMo-V2-Pro 是小米 3 月 18 日发布的旗舰基座模型,采用 MoE 架构,支持 100 万上下文。

[原文链接]

1M AI News 监测,Elon Musk 在 X 上转发谷歌后量子安全白皮书相关讨论后调侃称:「往好了想,如果你忘了钱包密码,未来也许还能取回来。」

这句玩笑指向谷歌量子 AI 团队今日发布的一篇白皮书。谷歌称,未来破解保护比特币等系统的 256 位椭圆曲线加密,所需物理量子比特数可降至 50 万以下,较此前估计缩小约 20 倍。谷歌同时表示,团队已用零知识证明公开结论而不泄露攻击路线,并将沿着其 2029 年时间表继续推进后量子密码迁移。

[原文链接]

1M AI News 监测,微软研究团队提出 HyperP(Hypersphere Parameterization),首个在超球面优化下实现学习率跨模型宽度、深度、训练数据量和 MoE 粒度全维度迁移的框架。核心做法是将权重矩阵约束在固定范数的超球面上,配合 Muon 优化器,只需在最小规模(2.08 亿参数)上调一次基础学习率,即可直接迁移至所有更大的计算预算。

论文有两个关键理论发现。第一,在 Frobenius 球面约束下,权重衰减(weight decay)在一阶近似上完全无效,可以直接删除,将超参数搜索空间从学习率和权重衰减的联合平面压缩到只剩学习率一个维度。第二,最优学习率随训练数据量的缩放遵循幂律关系,指数为 0.32,与此前在 AdamW 优化器上观察到的「magic exponent」完全一致,暗示这可能是梯度优化的普遍性质,与具体优化器无关。

实验结果上,在 6×10²¹ FLOPs 的计算预算下,HyperP 对 dense 模型的计算效率较强 Muon 基线(配合 μP++ 和权重衰减缩放)提升 1.58 倍,且优势随规模单调递增;配合论文提出的 SqrtGate 机制(一种保持输出 RMS 跨 MoE 粒度不变的门控方式)的 MoE 模型,效率进一步达到 dense 模型的 3.38 倍。稳定性方面,HyperP 实现了「可迁移的稳定性」:从 9.13 亿到 133 亿参数的 MoE 模型,所有六项训练不稳定指标(Z 值、输出 RMS、激活异常值比例等)均保持有界且不随规模增长。论文还反驳了 MuonH 原作者关于该优化器天然具备深度迁移性的说法,证明残差连接的累积角漂移使得 Depth-μP 仍然必要。代码已开源。

[原文链接]

1M AI News 监测,DeepSeek 状态页显示,3 月 31 日 17:02(CST)网页端和 API 服务同时出现性能异常,18:05 恢复,持续约 1 小时。此前本月五次故障均标注为「网页/APP」或「网页」,这是 API 服务首次被纳入受影响范围,意味着不仅前端用户,通过 API 接入 DeepSeek 的第三方应用和开发者也受到波及。

这是 DeepSeek 3 月第六次公开记录的服务异常。状态页历史显示,3 月 5 日网页不可用约 45 分钟,3 月 10 日网页/APP 不可用约 76 分钟,3 月 18 日性能下降约 11 分钟,3 月 29 日至 30 日连续两起故障累计跨度近 13 小时。

[原文链接]

1M AI News 监测,阿里巴巴通义实验室宣布,今日发布 CoPaw 1.0 新版本,围绕四大方面升级 CoPaw 的能力:为 CoPaw 量身定制的小模型、安全机制、多智能体协同、以及记忆管理。


新增多 Agent 系统:


后台任务支持:支持通过 CLI --background 标志在后台执行 Agent 间通信任务,提供任务追踪、状态轮询和取消功能 (#2345)


Agent 启用/禁用开关:可以通过控制台界面和 API 启用或禁用 Agent (#2249)


统一优先级队列系统和 /stop 命令:按通道、会话和优先级分层的队列系统,支持通过 /stop 命令取消运行中的任务并清空排队消息 (#2411)

[原文链接]

1M AI News 监测,区块链安全公司 Fuzzland 实习研究员 Chaofan Shou 在 X 上指出,Anthropic 旗下 AI 编程工具 Claude Code 的 npm 包中包含完整的 source map 文件(cli.js.map,约 60MB),可从中还原出全部 TypeScript 源代码。经验证,该文件出现在 3 月 30 日发布的 v2.1.88 中,前一版 v2.1.87(3 月 29 日)并不包含,包体积也从 17MB 骤增至 31MB(解压后约 60MB),属于最新一次构建意外引入。


还原后的 source map 内含 1,906 个 Claude Code 自有源文件的完整文本,涵盖内部 API 设计、遥测系统、加密工具、进程间通信协议等实现细节(不含 package.json 等构建配置,无法直接编译运行)。Source map 是 JavaScript 开发中用于将压缩代码映射回原始源代码的调试文件,不应出现在生产发布包中。


2025 年 2 月 Claude Code 首次发布时也曾因包含 source map 被公开讨论,此后该文件从 npm 包中消失,但提取源码的行为并未停止。目前 GitHub 上仍有多个公开仓库整理了还原后的源代码,其中 ghuntley/claude-code-source-code-deobfuscation 获得近千颗星。此次泄露的是 Claude Code CLI 客户端实现代码,不涉及模型权重或用户数据,对普通用户没有直接安全风险。

[原文链接]

1M AI News 监测,阿里云百炼技术负责人于文渊在播客「十字路口」中透露,百炼平台上每天消耗超过 1 亿 Token 的用户已「数以万计」,Token 消耗基本以月翻倍的速度增长。他称 Qwen 3.5 在除夕当天发布后,仅两周多峰值请求量就跃升至「历史上所有文本模型都未曾见过的高度」,而「现在仅仅是一个开始」。

于文渊发表自称「暴论」的观点:没有任何场景需要企业自建 GPU。他认为企业自建的三个常见理由(成本可控、数据安全、灵活性),恰恰是应该使用 MaaS(模型即服务)的理由:推理优化迭代快,自养 Infra 工程师持续跟进很难;自持 GPU 利用率难保证;模型架构变化不确定,而 MaaS 用户只需面对一个 API。安全方面,阿里云在推行「机密计算」,用户的模型文件和请求内容端到端加密,密钥掌握在用户自己手里。

他还给出一个反直觉判断:AI 最先替代的不是前端工程师,而是写操作系统内核、数据库内核、文件系统的系统工程师。理由是这些领域代码库质量高、测试用例清晰、问题像「可以被精准定义的数学题」;而与产品和用户交互紧密的岗位,需要难以形式化的 know-how,反而更难替代。他引用了存储会议 FAST 上的一篇论文:只要规范写得够清楚,32B 模型就能写出文件系统级别的代码。

于文渊还对 AI 编程提出警告:把「AI 生成代码比例」当 KPI「非常危险」,AI 代码用于原型没问题,但用于生产环境「还差一点」。他建议计算机专业学生少用 AI 写代码,先建立自己的判断力,「努力成为能识别出 AI 做不到的那 1% 的人」。

[原文链接]

1M AI News 监测,网站流量分析平台 Similarweb 数据显示,Claude.ai 3 月前 28 天的全球总访问量较整个 2 月增长 86%。图表显示 2 月总访问量约 2.8 亿次,3 月 1-28 日约 5.2 亿次,且月底三天数据尚未计入。

增长曲线仍在加速。此前美国银行 3 月初援引 Similarweb 数据称,Claude.ai 2 月访问量环比增长 63%,已是当月主流 AI 产品中增速最高的。3 月的 86% 意味着 Anthropic 的用户获取势头不仅未放缓,反而在提速。

[原文链接]

1M AI News 监测,谷歌量子 AI 白皮书发布同日,中性原子量子计算初创公司 Oratomic 在 arXiv 上发表论文,称仅需约 1 万个可重构原子量子比特即可在密码学相关规模上运行 Shor 算法。这篇论文直接以谷歌优化后的低深度 Shor 电路为输入,在此基础上优化了量子计算栈的另一层:谷歌压缩的是算法所需的逻辑量子比特数(从数千降到约 1200 个),Oratomic 压缩的是每个逻辑量子比特所需的物理量子比特数。两层优化叠加,共同把破解加密所需的硬件规模推向了前所未有的低点。

Oratomic 的关键手段是用高编码率的 qLDPC 码替代传统的表面码。表面码是目前主流的量子纠错方案,谷歌的超导方案就用它,但编码效率低,每个逻辑量子比特需要约 400 个物理量子比特,总计约 50 万个。qLDPC 码的编码率约 30%,能用远更少的物理量子比特保护同样数量的逻辑量子比特,将总需求从百万量级压缩了约两个数量级。

论文给出了多组架构方案(假设稳定子测量周期为 1 毫秒):

1. 约 1 万个物理量子比特可运行 Shor 算法破解 256 位椭圆曲线加密(比特币和以太坊使用的加密方案),运行时间取决于并行度
2. 约 26,000 个物理量子比特配置下,破解椭圆曲线加密的运行时间约 10 天
3. 约 102,000 个物理量子比特配置下,破解 RSA-2048 的运行时间约 97 天

代价是速度:中性原子的时钟频率远低于超导方案,破解一次需要数天而非数分钟。但这并不意味着威胁更小。谷歌的超导方案(50 万量子比特,9 分钟)适合劫持正在广播的实时交易;Oratomic 的中性原子方案(1-2.6 万量子比特,数天)适合攻击公钥已暴露的休眠钱包,而这类攻击不需要抢时间。谷歌白皮书估计约 690 万枚比特币属于这一类。

硬件差距正在收窄。论文指出,中性原子实验已演示超过 6,100 个量子比特的物理捕获阵列,不过这些阵列尚未实现量子计算;具备容错计算能力的中性原子系统目前约为 500 个量子比特。从 500 个到论文所需的 1 万个,差距约 20 倍,远小于谷歌超导路线的约 5000 倍(当前约 100 个 vs 需要 50 万个)。论文作者来自 Oratomic,同时挂靠加州理工学院,成员包括量子计算权威 John Preskill 和 Manuel Endres,通讯作者为 Dolev Bluvstein。论文结尾称,后续硬件提速与纠错改进有望将运行时间再缩短一个数量级以上,甚至降至小时或分钟级别。

[原文链接]
查看更多
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成