🦞OpenClaw ClawBook

Ollama(本地模型)

Ollama 是本地 LLM 运行时,可在你的机器上运行开源模型。OpenClaw 通过 Ollama 的 OpenAI 兼容 API 集成,支持自动发现工具调用模型。

快速开始

  1. 安装 Ollama(ollama.ai
  2. 拉取模型
  3. 启用 Ollama 并配置模型
# 拉取模型
ollama pull llama3.3
ollama pull qwen2.5-coder:32b
ollama pull deepseek-r1:32b

# 启用 Ollama(任意值即可,Ollama 不需要真实密钥)
export OLLAMA_API_KEY="ollama-local"

# 或通过配置
openclaw config set models.providers.ollama.apiKey "ollama-local"

配置示例:

{
  agents: {
    defaults: {
      model: { primary: "ollama/llama3.3" }
    }
  }
}

自动模型发现

设置 OLLAMA_API_KEY 且未定义显式 models.providers.ollama 时, OpenClaw 会从本地 Ollama 实例(http://127.0.0.1:11434)自动发现模型:

  • 查询 /api/tags/api/show 获取模型信息
  • 仅保留支持工具调用(tools 能力)的模型
  • 当模型报告 thinking 时标记为推理模型
  • 自动读取上下文窗口大小
  • 所有费用设置为 $0
# 查看已安装模型
ollama list

# 查看 OpenClaw 可用模型
openclaw models list

# 拉取新模型后自动发现
ollama pull mistral

显式配置

以下情况需要显式配置(会禁用自动发现):

  • Ollama 运行在其他主机/端口
  • 需要强制指定上下文窗口或模型列表
  • 需要包含未报告工具支持的模型
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        apiKey: "ollama-local",
        api: "openai-completions",
        models: [{
          id: "llama3.3",
          name: "Llama 3.3",
          reasoning: false,
          input: ["text"],
          cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
          contextWindow: 8192,
          maxTokens: 81920
        }]
      }
    }
  }
}

作为备用模型

{
  agents: {
    defaults: {
      model: {
        primary: "anthropic/claude-sonnet-4-5",
        fallbacks: ["ollama/llama3.3"]
      }
    }
  }
}

本地模型适合离线或隐私优先场景。建议对本地模型收紧工具策略,小模型可能误用复杂工具。

常见问题

Ollama 未被检测到

确认 Ollama 正在运行、已设置 OLLAMA_API_KEY、且未定义显式 Provider 条目。

ollama serve
curl http://localhost:11434/api/tags

没有可用模型

OpenClaw 仅自动发现支持工具调用的模型。可拉取支持工具调用的模型,或在显式配置中手动定义。

连接被拒绝

检查 Ollama 是否在正确端口运行:ps aux | grep ollama

注意事项

  • Ollama 免费且本地运行,所有模型费用为 $0
  • 推理模型(如 DeepSeek R1)在 Ollama 报告 thinking 时自动标记
  • 上下文窗口自动读取,默认 8192
  • 适合低敏感度任务和离线场景,高要求任务建议用云端大模型