OpenClaw 连接本地 Ollama 模型

OpenClaw 连接本地 Ollama 模型

方法一:官方一键启动(最简单)

Ollama 内置了 OpenClaw 的集成命令,会自动配置 provider、安装 gateway 守护进程、设置模型,并安装 web search 插件:

ollama launch clawdbot

方法二:手动配置(更灵活)

第一步:确保 Ollama 正在运行并拉取模型

# 验证 Ollama 运行状态
curl http://localhost:11434/api/tags

# 拉取推荐模型(按显存选择)
ollama pull llama3.3        # 8GB+ VRAM
ollama pull qwen2.5:14b     # 16GB+ VRAM,复杂任务更佳
ollama pull glm4-flash      # 25GB VRAM,推理+代码

推荐从 Llama 3.3 8B 开始,适合 8GB 内存,能可靠处理常规任务。复杂多步骤任务和代码场景推荐 Qwen 2.5 14B,需要 16GB 内存。


第二步:安装 OpenClaw

npm install -g openclaw

⚠️ OpenClaw 需要 Node.js 22 或更新版本。


第三步:修改配置文件

编辑 ~/.openclaw/openclaw.json

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-responses",
        "models": [
          {
            "id": "llama3.3:latest",
            "name": "Llama 3.3",
            "contextWindow": 65536,
            "maxOutput": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/llama3.3:latest"
      }
    }
  }
}

第四步:重启 gateway 并验证

openclaw gateway restart
openclaw models list
openclaw models status

⚠️ 常见问题与解决办法

非 OpenAI 原生 provider 建议使用 openai-completions 而非 openai-responses,后者在系统提示的 role 处理上可能有兼容性问题。

建议本地模型的上下文窗口至少配置 64k tokens,以保证 agent 任务的正常运行。


硬件参考


OpenClaw 连接本地 Ollama 模型
https://blog.fullsize.cn/2026/03/23/notion/openclaw-lian-jie-ben-di-ollama-mo-xing/
作者
fullsize
发布于
2026年3月23日
许可协议