header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP
全部
预测市场
AI
链上侦探
融资
2026-04-08
订阅推送
自动更新

BlockBeats 消息,4 月 8 日,国内首个浏览器「龙虾」QBotClaw 正式上线,不仅完全兼容 OpenClaw 技能,还支持自由配置国内各大主流大模型的 API Key。只要用户会使用浏览器,就能拥有一只随时待命的专属「小龙虾」。支持购物比价、帮用户发帖等功能。(腾讯云)

[原文链接]

BlockBeats 消息,4 月 8 日,开源个人 AI 助手 OpenClaw 发布 v2026.4.7。最引人注意的变更是恢复 Anthropic Claude CLI 为新用户的默认本地后端,包括引导流程、模型认证指引和 Docker 部署路径。两天前的 v2026.4.5 版本刚将 Claude CLI 从默认后端中移除,仅保留已有配置的兼容运行。前后两个版本对 Claude CLI 的态度 180 度翻转,背景是 Anthropic 上周封杀 OpenClaw 使用 Claude 订阅额度后,其滥用检测机制引发的争议仍在发酵。


本版另一个信号是新增谷歌 Gemma 4 模型支持,包括推理模式兼容和 thinking 语义适配。Gemma 4 尚未正式发布,OpenClaw 提前接入意味着该模型已进入外部合作伙伴的测试阶段。


其他主要更新:

1. 新增 openclaw infer 统一推理命令行入口,整合文本、图片、语音、嵌入和网页搜索等多种推理任务
2. 恢复 memory-wiki 记忆栈,提供结构化的知识声明、证据字段、矛盾检测和时效性搜索
3. 媒体生成工具新增跨供应商自动降级,当首选供应商鉴权失败时自动切换备选,并将尺寸、时长等参数映射到目标供应商支持的最近选项
4. 新增可插拔压缩引擎,插件可替换内置的 LLM 摘要管线
5. 新增 Arcee AI 供应商和 Ollama 视觉模型自动检测

安全修复数量突出,涉及跨域重定向时剥离请求体防止凭证泄露、阻断 Java/Rust/Kubernetes 等环境变量覆盖攻击、飞书文档上传路径逃逸、QQ Bot 媒体下载路径注入、ClawHub 插件包 SHA-256 校验等十余项。

[原文链接]

1M AI News 监测,Claude Code 产品经理 Noah Zweben 发文表示,「/autofix-pr 现在可以直接从命令行启动自动修复。在完成一个 PR 后,只需运行该指令。它会将你的会话上传到云端,这样 PR 自动修复工具就能获得完整上下文来处理 CI 失败和评论。」

[原文链接]

BlockBeats 消息,4 月 8 日,据彭博社报道,Anthropic PBC 已从微软挖来了高级主管,以推动建立支持其人工智能服务日益增长的用户需求所需的基础设施。


根据其周二在 LinkedIn 发布的消息,Eric Boyd 将担任 Anthropic 基础设施主管。他写道:「人工智能的发展速度惊人。过去 6 个月,尤其是过去两个月里 Claude Code 的影响力,充分展示了技术可能达到的强大力量。」

[原文链接]

1M AI News 监测,开源 AI 模型机构 Nous Research 宣布与小米合作,将小米旗舰推理模型 MiMo V2 Pro 接入其多平台 AI Agent 框架 Hermes Agent,通过 Nous Portal 提供服务,限时两周免费。

[原文链接]

1M AI News 监测,微软必应团队开源了嵌入模型系列 Harrier。嵌入模型是搜索引擎和 RAG 系统的底层组件,负责将文本转换为向量以便检索和匹配,它的质量直接决定了 AI 系统能否找到正确的信息。

旗舰版 Harrier-OSS-v1-27B 在多语言 MTEB v2 基准(涵盖 131 项任务)上均分 74.3,超出此前开源模型最高分 2 个百分点,排名第一。与闭源模型对比,领先幅度更大:OpenAI text-embedding-3-large 均分 58.92,谷歌 Gemini Embedding 2 为 69.9,亚马逊 Titan Embed v2 为 60.37。

同步开源两个轻量版本供低算力场景部署:

1. 0.6B 参数版:均分 69.0,榜单第 10,已超过谷歌 Gemini Embedding 1(68.33)
2. 270M 参数版:均分 66.5,榜单第 15,以最小体量超过 OpenAI 和亚马逊闭源模型

三个版本均支持超过 100 种语言和 32K 上下文窗口。训练数据包括超过 20 亿条弱监督文本对(用于对比预训练)和 1000 万条高质量样本(用于微调),合成数据由 GPT-5 生成。旗舰模型完成后还作为教师模型,通过知识蒸馏提升两个小模型的性能。微软表示 Harrier 的技术将整合进必应搜索和新一代 Agent 接地服务中。

[原文链接]

1M AI News 监测,OpenAI CEO Sam Altman 在公司论坛座谈会上确认,OpenAI 已将 2028 年 3 月定为实现「自动化研究员」的正式目标,即一个能独立完成 AI 研究工作的 AI 系统。他称一旦实现,冲击将是双重的:系统本身证明 AI 已能胜任高级认知工作,同时它还会加速后续 AI 研究的节奏,「之后一年的进展几乎肯定比我们目前的速度更快」。

Altman 将当前时刻比作 2020 年初的 COVID 前夜。他回忆 2020 年 1 月底,OpenAI 研究人员比外界更早意识到疫情将改变一切,提前居家办公、在门把手上贴铜片消毒,被媒体嘲笑。有天晚上他独自走在旧金山 Mission 区街头,透过窗户看着酒吧里的人们面对面呼吸,「有一场疯狂的变化正在发生,变化其实已经发生了,但社会还没有消化它。我们试图告诉世界它即将到来,却很难被理解。而我现在又有了完全相同的感受」。

座谈会上还透露一个细节:过去几个月里 OpenAI 大量研究人员经历了从自己写代码到让 AI 写大部分代码的转变。Altman 说这种「能力过剩」(capability overhang)被低估了,普通用户大约每半年才重新试一次 AI,而 AI 的能力每几周就在跃升,「他们留在默认的聊天模型上,根本不知道推理模型已经出现了」。

该座谈会于 4 月 6 日举办,同日 OpenAI 发布了「智能时代的产业政策」白皮书。

[原文链接]

1M AI News 监测,AI 编程公司 Cognition(Devin 和 Windsurf 的开发商)发布 SWE-1.6 模型。在 SWE-Bench Pro 上保持与上月 Preview 版本相当的得分,但重点放在了「模型体验」优化上:Preview 版本顺序调用工具、简单问题过度思考、容易陷入重复推理循环,SWE-1.6 把这些问题逐一修掉了。

三组对比数据(SWE-1.6 Preview → SWE-1.6):

1. 用 Bash 替代专用工具(坏习惯):97% → 11.2%
2. 重复推理循环(坏习惯):34.6% → 1.8%
3. 并行工具调用(好习惯):3.9% → 90.5%

核心训练技巧是在强化学习奖励中加入长度惩罚,抑制不必要的长轨迹。消融实验显示,加入惩罚后模型对话轮次从约 61.5 降至 51.0,任务解决率基本持平(33.8% vs 32.7%),用更少的步数做到同样的事。

这些指标不会出现在传统基准榜单上,但它们决定了用户在实际使用中是觉得「顺」还是觉得「烦」。Cognition 把这类优化统称为「model UX」,认为它和智能水平同等重要。

SWE-1.6 今日起在 Windsurf 中对所有用户免费开放 3 个月,由 Fireworks 提供推理服务,速度 200 tok/s。付费用户可选 Cerebras 加速版本,速度 950 tok/s。

[原文链接]

1M AI News 监测,AI 编程公司 Cognition(Devin 和 Windsurf 的开发商)发布 SWE-1.6 模型。在 SWE-Bench Pro 上保持与上月 Preview 版本相当的得分,但重点放在了「模型体验」优化上:Preview 版本顺序调用工具、简单问题过度思考、容易陷入重复推理循环,SWE-1.6 把这些问题逐一修掉了。

三组对比数据(SWE-1.6 Preview → SWE-1.6):

1. 用 Bash 替代专用工具(坏习惯):97% → 11.2%
2. 重复推理循环(坏习惯):34.6% → 1.8%
3. 并行工具调用(好习惯):3.9% → 90.5%

核心训练技巧是在强化学习奖励中加入长度惩罚,抑制不必要的长轨迹。消融实验显示,加入惩罚后模型对话轮次从约 61.5 降至 51.0,任务解决率基本持平(33.8% vs 32.7%),用更少的步数做到同样的事。

这些指标不会出现在传统基准榜单上,但它们决定了用户在实际使用中是觉得「顺」还是觉得「烦」。Cognition 把这类优化统称为「model UX」,认为它和智能水平同等重要。

SWE-1.6 今日起在 Windsurf 中对所有用户免费开放 3 个月,由 Fireworks 提供推理服务,速度 200 tok/s。付费用户可选 Cerebras 加速版本,速度 950 tok/s。

[原文链接]

1M AI News 监测,OpenAI Codex 工程负责人 Thibault Sottiaux 宣布 Codex 周活跃用户突破 300 万,不到一个月前这个数字还是 200 万。作为庆祝,团队再次重置所有用户的速率限制,并承诺此后每新增 100 万用户就重置一次,直到达到 1000 万。

[原文链接]
查看更多
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成