Ollama(本地模型)
Ollama 是本地 LLM 运行时,可在你的机器上运行开源模型。OpenClaw 通过 Ollama 的 OpenAI 兼容 API 集成,支持自动发现工具调用模型。
快速开始
- 安装 Ollama(
ollama.ai) - 拉取模型
- 启用 Ollama 并配置模型
# 拉取模型
ollama pull llama3.3
ollama pull qwen2.5-coder:32b
ollama pull deepseek-r1:32b
# 启用 Ollama(任意值即可,Ollama 不需要真实密钥)
export OLLAMA_API_KEY="ollama-local"
# 或通过配置
openclaw config set models.providers.ollama.apiKey "ollama-local"配置示例:
{
agents: {
defaults: {
model: { primary: "ollama/llama3.3" }
}
}
}自动模型发现
设置 OLLAMA_API_KEY 且未定义显式 models.providers.ollama 时, OpenClaw 会从本地 Ollama 实例(http://127.0.0.1:11434)自动发现模型:
- 查询
/api/tags和/api/show获取模型信息 - 仅保留支持工具调用(
tools能力)的模型 - 当模型报告
thinking时标记为推理模型 - 自动读取上下文窗口大小
- 所有费用设置为 $0
# 查看已安装模型
ollama list
# 查看 OpenClaw 可用模型
openclaw models list
# 拉取新模型后自动发现
ollama pull mistral显式配置
以下情况需要显式配置(会禁用自动发现):
- Ollama 运行在其他主机/端口
- 需要强制指定上下文窗口或模型列表
- 需要包含未报告工具支持的模型
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
apiKey: "ollama-local",
api: "openai-completions",
models: [{
id: "llama3.3",
name: "Llama 3.3",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 8192,
maxTokens: 81920
}]
}
}
}
}作为备用模型
{
agents: {
defaults: {
model: {
primary: "anthropic/claude-sonnet-4-5",
fallbacks: ["ollama/llama3.3"]
}
}
}
}本地模型适合离线或隐私优先场景。建议对本地模型收紧工具策略,小模型可能误用复杂工具。
常见问题
Ollama 未被检测到
确认 Ollama 正在运行、已设置 OLLAMA_API_KEY、且未定义显式 Provider 条目。
ollama serve
curl http://localhost:11434/api/tags没有可用模型
OpenClaw 仅自动发现支持工具调用的模型。可拉取支持工具调用的模型,或在显式配置中手动定义。
连接被拒绝
检查 Ollama 是否在正确端口运行:ps aux | grep ollama
注意事项
- Ollama 免费且本地运行,所有模型费用为 $0
- 推理模型(如 DeepSeek R1)在 Ollama 报告 thinking 时自动标记
- 上下文窗口自动读取,默认 8192
- 适合低敏感度任务和离线场景,高要求任务建议用云端大模型