header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

Ollama宣布成为OpenClaw官方模型提供商:一条命令接入,支持云端与本地模型混合调用

据 1M AI News 监测,本地大模型运行工具 Ollama 今日宣布正式成为 OpenClaw 的官方模型提供商。用户执行 openclaw onboard --auth-choice ollama 即可完成接入,所有 Ollama 模型将与 OpenClaw 无缝协作。

Ollama 此次接入提供「Cloud + Local」混合模式,用户可同时使用 Ollama 云端托管的模型和本地运行的模型。OpenClaw 的引导向导会自动检测本地已安装的 Ollama 模型,并通过 Ollama 原生 API 支持流式传输和工具调用。OpenClaw 创始人 Peter Steinberger 参与了此次集成的审核工作。

举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成