header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

Mixedbread发布Wholembed v3:首个在LIMIT基准上超越BM25词法检索的语义模型,用多向量架构打破「够像但不对」的检索瓶颈

1M AI News 监测,德国搜索基础设施公司 Mixedbread 发布全模态多语言检索模型 Wholembed v3,支持文本、图片、音频和视频检索,覆盖 100 余种语言。该模型采用 late-interaction 多向量架构(源自 ColBERT),为每个 token 生成独立的低维向量,而非传统方式将整篇文档压缩为单一向量。Mixedbread 认为,单向量检索的结构性缺陷是「看起来合理、读起来流畅、但实际上是错的」,在信息密集的技术文档、法律文件和学术论文上尤其严重。

在 LIMIT 基准测试中,Wholembed v3 的 Recall@5 达到 92.45,首次超越经典词法检索方法 BM25(85.7),而 OpenAI text-embedding-3-large、Cohere Embed 4、Voyage 4 Large 和 Gemini Embedding 2 的 Recall@5 仅在 1.75 到 1.85 之间。LIMIT 专门测试文档包含大量细粒度结构化信息的场景,Mixedbread 认为这类文档在企业真实环境中极为常见但被主流基准忽略。在面向 agent 深度研究的 BrowseComp-Plus 基准上,搭配 Wholembed v3 的检索系统也让 agent 在 830 个复杂查询中正确回答了显著更多的问题。

Wholembed v3 参数量为初代的 20 倍,已部署在 Mixedbread Search 基础设施上,支持 10 亿级文档索引、500+ QPS 和约 50ms 端到端搜索延迟。该模型已成为 Mixedbread 平台的默认且唯一模型。

举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成