🦞OpenClaw ClawBook

模型与 Provider

OpenClaw 支持 30+ 模型供应商。模型以 provider/model 格式引用,支持主模型 + 备用模型自动切换。

支持的 Provider

Anthropic
OpenAI
OpenRouter
Amazon Bedrock
Cloudflare AI
Vercel AI
Moonshot (Kimi)
Mistral
Ollama
vLLM
GLM (智谱)
MiniMax
Together AI
Hugging Face
NVIDIA
LiteLLM
Qianfan (百度)
Qwen (通义)
Deepgram (语音)
Z.AI
Venice
Xiaomi (小米)

此外,任何 OpenAI 兼容的 API 都可以通过 openai-compatible 接入。

认证设置

最简单的方式是通过交互引导完成:

openclaw onboard
# 或单独设置某个 Provider
openclaw models auth add --provider anthropic

API Key 保存在 ~/.openclaw/.env

ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
OPENROUTER_API_KEY=sk-or-...

Key 优先级:OPENCLAW_LIVE_<PROVIDER>_KEY > <PROVIDER>_API_KEYS(逗号分隔多 Key)> <PROVIDER>_API_KEY

模型配置

在配置文件中指定主模型和备用模型:

{
  agents: {
    defaults: {
      model: {
        primary: "anthropic/claude-sonnet-4-5",
        fallbacks: [
          "openai/gpt-4o",
          "openrouter/anthropic/claude-sonnet-4-5"
        ]
      }
    }
  }
}

当主模型返回 429(限流)或 5xx 错误时,自动切换到备用模型。

模型管理命令

# 查看可用模型列表
openclaw models list

# 检查模型认证状态
openclaw models status
openclaw models status --check  # 退出码 1=过期, 2=即将过期

# 设置默认模型
openclaw models set anthropic/claude-sonnet-4-5

# 扫描可用模型
openclaw models scan

# 管理备用模型
openclaw models fallbacks

# 管理模型别名
openclaw models aliases

按渠道指定模型

不同渠道可以使用不同的模型,适合控制成本或匹配能力:

{
  channels: {
    modelByChannel: {
      "telegram": "anthropic/claude-sonnet-4-5",
      "discord:guild:123": "openai/gpt-4o",
      "whatsapp": "ollama/llama3.1"
    }
  }
}

本地模型(Ollama)

OpenClaw 原生支持 Ollama,适合离线或隐私优先的场景:

# 确保 Ollama 已安装并运行
ollama serve

# 拉取模型
ollama pull llama3.1

# 在 OpenClaw 中使用
openclaw models set ollama/llama3.1

使用本地模型时建议收紧工具策略,因为小模型可能误用复杂工具。 参考 按模型限制工具

聊天中切换模型

用户可以在对话中临时切换模型:

# 在聊天中发送
/model anthropic/claude-opus-4

# 带认证档案
/model gpt-4o@profile-id

Provider 详细指南

最佳实践

  • 始终配置至少一个 fallback 模型,避免主模型限流时完全无响应
  • API Key 用环境变量管理,不要写入配置文件
  • 多 Key 轮换可用逗号分隔写在 <PROVIDER>_API_KEYS
  • 本地模型适合低敏感度任务,高要求任务建议用云端大模型
  • 定期运行 openclaw models status --check 监控 Key 有效性