第八章 多模型與成本優化
前提:本章假設你已完成第一章的安裝配置。如果你只使用一個模型提供商(如硅基流動),可以先跳過本章,等需要切換或優化費用時再回來看。
OpenClaw 不綁定任何單一 LLM(大語言模型)提供商。你可以同時配置 Claude、GPT、本地 Ollama 等多個模型,根據任務複雜度智能路由,在保證質量的同時大幅降低 API 費用。
什麼是 Token? 在 AI 模型計費中,Token 是文本的計量單位。1 個漢字約等於 1-2 個 Token,1 個英文單詞約等於 1 個 Token。模型提供商按你消耗的 Token 數量收費——你發送的問題和 AI 的回答都會消耗 Token。
1. 支持的模型
1.1 雲端模型
| 提供商 | 模型 | 特點 | 適合任務 |
|---|---|---|---|
| 硅基流動 | siliconflow/deepseek-ai/DeepSeek-V3 | 國內推薦,新用戶 16 元免費 | 通用編碼、中文任務 |
| 深度求索 | deepseek/deepseek-chat | 編碼能力強 | 代碼生成、調試 |
| 通義千問 | qwen/qwen-max | 阿里雲生態,中文能力強 | 中文寫作、企業應用 |
| 月之暗面 | moonshot/moonshot-v1-128k | 128K 長上下文 | 長文檔分析 |
| 階躍星辰 | stepfun/step-2-16k | 多模態、長上下文 | 圖片理解、複雜推理 |
| 豆包 | volcengine/doubao-seed-2-0-pro-260215 | 火山方舟平臺,模型豐富 | 通用對話、編碼 |
| 混元 | hunyuan/hunyuan-turbos-latest | hunyuan-lite 免費無限量 | 通用對話、翻譯 |
| 稀宇科技 | minimax/abab6.5s-chat | 多模態支持 | 語音、圖片處理 |
| 智譜 | glm/glm-4-plus | 清華技術背景,中文理解強 | 中文對話、知識問答 |
| 文心一言 | ernie/ernie-4.0-8k | 百度生態,中文內容生成 | 中文對話、寫作 |
| OpenAI | openai/gpt-5.4 | 最強綜合能力 | 複雜推理、編碼 |
| Anthropic | anthropic/claude-opus-4-6 | 深度思考、長上下文 | 寫作、分析、編碼 |
google/gemini-3.1-pro | 多模態、大上下文窗口 | 多模態任務、長文檔 | |
| xAI | xai/grok-4 | 實時信息接入 | 信息檢索、對話 |
模型標識格式:OpenClaw 統一使用
provider/model-name格式標識模型。內置提供商包括:OpenAI、Anthropic、Google、xAI、Ollama、硅基流動、深度求索、通義千問、月之暗面、階躍星辰、稀宇科技、火山引擎(豆包)、智譜、OpenRouter 等。混元、文心一言等其他提供商可通過自定義 OpenAI 兼容端點接入。零成本入門:第一章推薦的 OpenRouter 提供免費模型(如
stepfun/step-3.5-flash:free),適合學習階段。當你需要更多模型選擇或更高速率時,推薦 硅基流動(SiliconFlow)——新註冊用戶贈送 16 元算力券,支持支付寶/微信充值,可直接訪問 DeepSeek、Qwen、GLM 等多家模型。詳見第一章第 2 節。
1.2 本地模型(Ollama)
| 模型 | 參數量 | 最低顯存 | 特點 |
|---|---|---|---|
| Llama 3.3 | 70B | 48GB | 開源最強通用模型 |
| Qwen 2.5 | 72B | 48GB | 中文能力突出 |
| DeepSeek V3 | 671B(MoE,混合專家架構,雖然參數量大但實際顯存需求低) | 24GB | 編碼能力強 |
| Phi-4 | 14B | 8GB | 輕量級推理 |
2. 配置多模型
2.1 添加模型提供商
在 openclaw.json 中添加 models.providers 配置塊:
// openclaw.json
{
"models": {
"providers": {
"siliconflow": {
"baseUrl": "https://api.siliconflow.cn/v1",
"apiKey": "sk-xxxxx"
},
"deepseek": {
"apiKey": "sk-xxxxx"
},
"volcengine": {
"apiKey": "sk-xxxxx"
},
"hunyuan": {
"baseUrl": "https://api.hunyuan.cloud.tencent.com/v1",
"apiKey": "sk-xxxxx",
"api": "openai-completions"
},
"glm": {
"apiKey": "sk-xxxxx"
},
"ollama": {
"baseUrl": "http://localhost:11434"
}
}
}
}2.2 設置默認模型
在 openclaw.json 中通過 agents.defaults.model.primary 指定默認模型:
// openclaw.json
{
"agents": {
"defaults": {
"model": {
"primary": "siliconflow/deepseek-ai/DeepSeek-V3"
}
}
}
}2.3 完整配置文件示例
// openclaw.json
{
"models": {
"providers": {
"siliconflow": {
"baseUrl": "https://api.siliconflow.cn/v1",
"apiKey": "sk-xxxxx"
},
"deepseek": {
"apiKey": "sk-xxxxx"
},
"ollama": {
"baseUrl": "http://localhost:11434"
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "siliconflow/deepseek-ai/DeepSeek-V3"
}
}
}
}注意:OpenClaw 的配置文件爲
openclaw.json(JSON 格式),不是 YAML。
展開:模型路由策略配置
3. 模型路由策略
3.1 基於任務複雜度
OpenClaw 可以根據任務自動選擇合適的模型:
{
"agents": {
"defaults": {
"model": {
"primary": "siliconflow/deepseek-ai/DeepSeek-V3"
}
}
}
}運行時也可以通過命令快速切換模型:
/model fast3.2 基於技能類型
不同技能可以指定不同的模型:
{
"skills": {
"weather": {
"model": "siliconflow/Qwen/Qwen2.5-7B-Instruct"
},
"code-reviewer": {
"model": "deepseek/deepseek-chat"
},
"translator": {
"model": "moonshot/moonshot-v1-128k"
}
}
}展開:本地模型部署(Ollama)
4. 本地模型部署(Ollama)
4.1 安裝 Ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh
# macOS
brew install ollama4.2 下載模型
# 下載 Qwen 2.5(推薦中文場景)
ollama pull qwen2.5:72b
# 下載 DeepSeek V3(推薦編碼場景)
ollama pull deepseek-v3
# 輕量級模型(適合低配置機器)
ollama pull phi4:14b4.3 配置 OpenClaw 使用本地模型
在 openclaw.json 中添加 Ollama 提供商並設置默認模型:
// openclaw.json
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434"
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen2.5:72b"
}
}
}
}4.4 混合模式
推薦的混合部署:本地模型處理日常任務(零成本),複雜任務切換到雲端 API:
// openclaw.json
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434"
},
"siliconflow": {
"baseUrl": "https://api.siliconflow.cn/v1",
"apiKey": "sk-xxxxx"
},
"deepseek": {
"apiKey": "sk-xxxxx"
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen2.5:72b"
}
}
}
}Ollama 自動發現:OpenClaw 會自動查詢 Ollama 的
/api/tags和/api/show接口,發現本地已安裝的模型,無需手動逐一配置。
5. 成本監控與優化
展開:成本監控與優化配置
5.1 查看 Token 消耗
# 查看今日消耗
openclaw usage today
# 查看本月統計
openclaw usage month
# 按技能查看消耗
openclaw usage --by-skill5.2 設置預算上限
{
"models": {
"budget": {
"daily": 5.00,
"monthly": 100.00,
"alert_at": 80
}
}
}5.3 成本優化技巧
使用緩存:相同查詢不重複調用 API。OpenClaw 內置了語義緩存,相似問題會複用之前的結果。
精簡 Prompt:過長的系統提示詞會增加每次調用的 Token 數。定期審查技能的提示詞,去除冗餘內容。
選擇合適的模型:不要所有任務都用最貴的模型。簡單任務用小模型(如硅基流動的 Qwen2.5-7B,約 ¥0.5/百萬 tokens)就夠了,不需要大模型(如 Claude Opus,約 ¥100/百萬 tokens),價格相差上百倍。
減少活躍技能:每個活躍技能的說明都會加入上下文,增加 Token 消耗。只保留常用技能。
長程記憶優化:如果你的使用場景涉及長對話(50+ 輪)或多實例協作,可以考慮安裝 OpenViking 記憶插件。實測可將輸入 Token 消耗降低約 91%,同時提升任務完成率。詳見第九章記憶增強方案。
5.4 成本對比
| 使用模式 | 日均調用 | 月估算費用 |
|---|---|---|
| 硅基流動 DeepSeek V3 | 100 次 | ~¥20-50 |
| 混合路由(硅基流動 + Opus) | 100 次 | ~¥30-80 |
| 本地 Ollama + 雲端回退 | 100 次 | ~¥5-15 |
6. 常見問題
模型切換延遲:不同模型的首次調用可能有冷啓動延遲。Ollama 本地模型需要先加載到顯存,首次響應會慢一些。
本地模型質量不夠:對於複雜任務,本地模型確實不如 Claude Opus。建議設置自動回退:本地模型處理失敗時自動切換到雲端。
API 限流:大部分提供商都有 RPM(每分鐘請求數)限制。如果遇到 429 錯誤,減少併發任務數或升級 API 套餐。
下一步:第九章 個人助理與內容創作