⚠️ Alpha内测版本警告:此为早期内部构建版本,尚不完整且可能存在错误,欢迎大家提Issue反馈问题或建议。
Skip to content

第八章 多模型与成本优化

前提:本章假设你已完成第一章的安装配置。如果你只使用一个模型提供商(如硅基流动),可以先跳过本章,等需要切换或优化费用时再回来看。

OpenClaw 不绑定任何单一 LLM(大语言模型)提供商。你可以同时配置 Claude、GPT、本地 Ollama 等多个模型,根据任务复杂度智能路由,在保证质量的同时大幅降低 API 费用。

什么是 Token? 在 AI 模型计费中,Token 是文本的计量单位。1 个汉字约等于 1-2 个 Token,1 个英文单词约等于 1 个 Token。模型提供商按你消耗的 Token 数量收费——你发送的问题和 AI 的回答都会消耗 Token。

1. 支持的模型

1.1 云端模型

提供商模型特点适合任务
硅基流动siliconflow/deepseek-ai/DeepSeek-V3国内推荐,新用户 16 元免费通用编码、中文任务
深度求索deepseek/deepseek-chat编码能力强代码生成、调试
通义千问qwen/qwen-max阿里云生态,中文能力强中文写作、企业应用
月之暗面moonshot/moonshot-v1-128k128K 长上下文长文档分析
阶跃星辰stepfun/step-2-16k多模态、长上下文图片理解、复杂推理
豆包volcengine/doubao-seed-2-0-pro-260215火山方舟平台,模型丰富通用对话、编码
混元hunyuan/hunyuan-turbos-latesthunyuan-lite 免费无限量通用对话、翻译
稀宇科技minimax/abab6.5s-chat多模态支持语音、图片处理
智谱glm/glm-4-plus清华技术背景,中文理解强中文对话、知识问答
文心一言ernie/ernie-4.0-8k百度生态,中文内容生成中文对话、写作
OpenAIopenai/gpt-5.4最强综合能力复杂推理、编码
Anthropicanthropic/claude-opus-4-6深度思考、长上下文写作、分析、编码
Googlegoogle/gemini-3.1-pro多模态、大上下文窗口多模态任务、长文档
xAIxai/grok-4实时信息接入信息检索、对话

模型标识格式:OpenClaw 统一使用 provider/model-name 格式标识模型。内置提供商包括:OpenAI、Anthropic、Google、xAI、Ollama、硅基流动、深度求索、通义千问、月之暗面、阶跃星辰、稀宇科技、火山引擎(豆包)、智谱、OpenRouter 等。混元、文心一言等其他提供商可通过自定义 OpenAI 兼容端点接入。

零成本入门:第一章推荐的 OpenRouter 提供免费模型(如 stepfun/step-3.5-flash:free),适合学习阶段。当你需要更多模型选择或更高速率时,推荐 硅基流动(SiliconFlow)——新注册用户赠送 16 元算力券,支持支付宝/微信充值,可直接访问 DeepSeek、Qwen、GLM 等多家模型。详见第一章第 2 节

1.2 本地模型(Ollama)

模型参数量最低显存特点
Llama 3.370B48GB开源最强通用模型
Qwen 2.572B48GB中文能力突出
DeepSeek V3671B(MoE,混合专家架构,虽然参数量大但实际显存需求低)24GB编码能力强
Phi-414B8GB轻量级推理

2. 配置多模型

2.1 添加模型提供商

openclaw.json 中添加 models.providers 配置块:

json
// openclaw.json
{
  "models": {
    "providers": {
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "sk-xxxxx"
      },
      "deepseek": {
        "apiKey": "sk-xxxxx"
      },
      "volcengine": {
        "apiKey": "sk-xxxxx"
      },
      "hunyuan": {
        "baseUrl": "https://api.hunyuan.cloud.tencent.com/v1",
        "apiKey": "sk-xxxxx",
        "api": "openai-completions"
      },
      "glm": {
        "apiKey": "sk-xxxxx"
      },
      "ollama": {
        "baseUrl": "http://localhost:11434"
      }
    }
  }
}

2.2 设置默认模型

openclaw.json 中通过 agents.defaults.model.primary 指定默认模型:

json
// openclaw.json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "siliconflow/deepseek-ai/DeepSeek-V3"
      }
    }
  }
}

2.3 完整配置文件示例

json
// openclaw.json
{
  "models": {
    "providers": {
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "sk-xxxxx"
      },
      "deepseek": {
        "apiKey": "sk-xxxxx"
      },
      "ollama": {
        "baseUrl": "http://localhost:11434"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "siliconflow/deepseek-ai/DeepSeek-V3"
      }
    }
  }
}

注意:OpenClaw 的配置文件为 openclaw.json(JSON 格式),不是 YAML。

展开:模型路由策略配置

3. 模型路由策略

3.1 基于任务复杂度

OpenClaw 可以根据任务自动选择合适的模型:

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "siliconflow/deepseek-ai/DeepSeek-V3"
      }
    }
  }
}

运行时也可以通过命令快速切换模型:

/model fast

3.2 基于技能类型

不同技能可以指定不同的模型:

json
{
  "skills": {
    "weather": {
      "model": "siliconflow/Qwen/Qwen2.5-7B-Instruct"
    },
    "code-reviewer": {
      "model": "deepseek/deepseek-chat"
    },
    "translator": {
      "model": "moonshot/moonshot-v1-128k"
    }
  }
}
展开:本地模型部署(Ollama)

4. 本地模型部署(Ollama)

4.1 安装 Ollama

bash
# Linux
curl -fsSL https://ollama.ai/install.sh | sh

# macOS
brew install ollama

4.2 下载模型

bash
# 下载 Qwen 2.5(推荐中文场景)
ollama pull qwen2.5:72b

# 下载 DeepSeek V3(推荐编码场景)
ollama pull deepseek-v3

# 轻量级模型(适合低配置机器)
ollama pull phi4:14b

4.3 配置 OpenClaw 使用本地模型

openclaw.json 中添加 Ollama 提供商并设置默认模型:

json
// openclaw.json
{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://localhost:11434"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen2.5:72b"
      }
    }
  }
}

4.4 混合模式

推荐的混合部署:本地模型处理日常任务(零成本),复杂任务切换到云端 API:

json
// openclaw.json
{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://localhost:11434"
      },
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "sk-xxxxx"
      },
      "deepseek": {
        "apiKey": "sk-xxxxx"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen2.5:72b"
      }
    }
  }
}

Ollama 自动发现:OpenClaw 会自动查询 Ollama 的 /api/tags/api/show 接口,发现本地已安装的模型,无需手动逐一配置。

5. 成本监控与优化

展开:成本监控与优化配置

5.1 查看 Token 消耗

bash
# 查看今日消耗
openclaw usage today

# 查看本月统计
openclaw usage month

# 按技能查看消耗
openclaw usage --by-skill

5.2 设置预算上限

json
{
  "models": {
    "budget": {
      "daily": 5.00,
      "monthly": 100.00,
      "alert_at": 80
    }
  }
}

5.3 成本优化技巧

使用缓存:相同查询不重复调用 API。OpenClaw 内置了语义缓存,相似问题会复用之前的结果。

精简 Prompt:过长的系统提示词会增加每次调用的 Token 数。定期审查技能的提示词,去除冗余内容。

选择合适的模型:不要所有任务都用最贵的模型。简单任务用小模型(如硅基流动的 Qwen2.5-7B,约 ¥0.5/百万 tokens)就够了,不需要大模型(如 Claude Opus,约 ¥100/百万 tokens),价格相差上百倍。

减少活跃技能:每个活跃技能的说明都会加入上下文,增加 Token 消耗。只保留常用技能。

5.4 成本对比

使用模式日均调用月估算费用
硅基流动 DeepSeek V3100 次~¥20-50
混合路由(硅基流动 + Opus)100 次~¥30-80
本地 Ollama + 云端回退100 次~¥5-15

6. 常见问题

模型切换延迟:不同模型的首次调用可能有冷启动延迟。Ollama 本地模型需要先加载到显存,首次响应会慢一些。

本地模型质量不够:对于复杂任务,本地模型确实不如 Claude Opus。建议设置自动回退:本地模型处理失败时自动切换到云端。

API 限流:大部分提供商都有 RPM(每分钟请求数)限制。如果遇到 429 错误,减少并发任务数或升级 API 套餐。


下一步第九章 个人助理与内容创作