Skip to content

第八章 多模型與成本優化

前提:本章假設你已完成第一章的安裝配置。如果你只使用一個模型提供商(如硅基流動),可以先跳過本章,等需要切換或優化費用時再回來看。

OpenClaw 不綁定任何單一 LLM(大語言模型)提供商。你可以同時配置 Claude、GPT、本地 Ollama 等多個模型,根據任務複雜度智能路由,在保證質量的同時大幅降低 API 費用。

什麼是 Token? 在 AI 模型計費中,Token 是文本的計量單位。1 個漢字約等於 1-2 個 Token,1 個英文單詞約等於 1 個 Token。模型提供商按你消耗的 Token 數量收費——你發送的問題和 AI 的回答都會消耗 Token。

1. 支持的模型

1.1 雲端模型

提供商模型特點適合任務
硅基流動siliconflow/deepseek-ai/DeepSeek-V3國內推薦,新用戶 16 元免費通用編碼、中文任務
深度求索deepseek/deepseek-chat編碼能力強代碼生成、調試
通義千問qwen/qwen-max阿里雲生態,中文能力強中文寫作、企業應用
月之暗面moonshot/moonshot-v1-128k128K 長上下文長文檔分析
階躍星辰stepfun/step-2-16k多模態、長上下文圖片理解、複雜推理
豆包volcengine/doubao-seed-2-0-pro-260215火山方舟平臺,模型豐富通用對話、編碼
混元hunyuan/hunyuan-turbos-latesthunyuan-lite 免費無限量通用對話、翻譯
稀宇科技minimax/abab6.5s-chat多模態支持語音、圖片處理
智譜glm/glm-4-plus清華技術背景,中文理解強中文對話、知識問答
文心一言ernie/ernie-4.0-8k百度生態,中文內容生成中文對話、寫作
OpenAIopenai/gpt-5.4最強綜合能力複雜推理、編碼
Anthropicanthropic/claude-opus-4-6深度思考、長上下文寫作、分析、編碼
Googlegoogle/gemini-3.1-pro多模態、大上下文窗口多模態任務、長文檔
xAIxai/grok-4實時信息接入信息檢索、對話

模型標識格式:OpenClaw 統一使用 provider/model-name 格式標識模型。內置提供商包括:OpenAI、Anthropic、Google、xAI、Ollama、硅基流動、深度求索、通義千問、月之暗面、階躍星辰、稀宇科技、火山引擎(豆包)、智譜、OpenRouter 等。混元、文心一言等其他提供商可通過自定義 OpenAI 兼容端點接入。

零成本入門:第一章推薦的 OpenRouter 提供免費模型(如 stepfun/step-3.5-flash:free),適合學習階段。當你需要更多模型選擇或更高速率時,推薦 硅基流動(SiliconFlow)——新註冊用戶贈送 16 元算力券,支持支付寶/微信充值,可直接訪問 DeepSeek、Qwen、GLM 等多家模型。詳見第一章第 2 節

1.2 本地模型(Ollama)

模型參數量最低顯存特點
Llama 3.370B48GB開源最強通用模型
Qwen 2.572B48GB中文能力突出
DeepSeek V3671B(MoE,混合專家架構,雖然參數量大但實際顯存需求低)24GB編碼能力強
Phi-414B8GB輕量級推理

2. 配置多模型

2.1 添加模型提供商

openclaw.json 中添加 models.providers 配置塊:

jsonc
// openclaw.json
{
  "models": {
    "providers": {
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "sk-xxxxx"
      },
      "deepseek": {
        "apiKey": "sk-xxxxx"
      },
      "volcengine": {
        "apiKey": "sk-xxxxx"
      },
      "hunyuan": {
        "baseUrl": "https://api.hunyuan.cloud.tencent.com/v1",
        "apiKey": "sk-xxxxx",
        "api": "openai-completions"
      },
      "glm": {
        "apiKey": "sk-xxxxx"
      },
      "ollama": {
        "baseUrl": "http://localhost:11434"
      }
    }
  }
}

2.2 設置默認模型

openclaw.json 中通過 agents.defaults.model.primary 指定默認模型:

jsonc
// openclaw.json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "siliconflow/deepseek-ai/DeepSeek-V3"
      }
    }
  }
}

2.3 完整配置文件示例

jsonc
// openclaw.json
{
  "models": {
    "providers": {
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "sk-xxxxx"
      },
      "deepseek": {
        "apiKey": "sk-xxxxx"
      },
      "ollama": {
        "baseUrl": "http://localhost:11434"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "siliconflow/deepseek-ai/DeepSeek-V3"
      }
    }
  }
}

注意:OpenClaw 的配置文件爲 openclaw.json(JSON 格式),不是 YAML。

展開:模型路由策略配置

3. 模型路由策略

3.1 基於任務複雜度

OpenClaw 可以根據任務自動選擇合適的模型:

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "siliconflow/deepseek-ai/DeepSeek-V3"
      }
    }
  }
}

運行時也可以通過命令快速切換模型:

/model fast

3.2 基於技能類型

不同技能可以指定不同的模型:

json
{
  "skills": {
    "weather": {
      "model": "siliconflow/Qwen/Qwen2.5-7B-Instruct"
    },
    "code-reviewer": {
      "model": "deepseek/deepseek-chat"
    },
    "translator": {
      "model": "moonshot/moonshot-v1-128k"
    }
  }
}
展開:本地模型部署(Ollama)

4. 本地模型部署(Ollama)

4.1 安裝 Ollama

bash
# Linux
curl -fsSL https://ollama.com/install.sh | sh

# macOS
brew install ollama

4.2 下載模型

bash
# 下載 Qwen 2.5(推薦中文場景)
ollama pull qwen2.5:72b

# 下載 DeepSeek V3(推薦編碼場景)
ollama pull deepseek-v3

# 輕量級模型(適合低配置機器)
ollama pull phi4:14b

4.3 配置 OpenClaw 使用本地模型

openclaw.json 中添加 Ollama 提供商並設置默認模型:

jsonc
// openclaw.json
{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://localhost:11434"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen2.5:72b"
      }
    }
  }
}

4.4 混合模式

推薦的混合部署:本地模型處理日常任務(零成本),複雜任務切換到雲端 API:

jsonc
// openclaw.json
{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://localhost:11434"
      },
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "sk-xxxxx"
      },
      "deepseek": {
        "apiKey": "sk-xxxxx"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen2.5:72b"
      }
    }
  }
}

Ollama 自動發現:OpenClaw 會自動查詢 Ollama 的 /api/tags/api/show 接口,發現本地已安裝的模型,無需手動逐一配置。

5. 成本監控與優化

展開:成本監控與優化配置

5.1 查看 Token 消耗

bash
# 查看今日消耗
openclaw usage today

# 查看本月統計
openclaw usage month

# 按技能查看消耗
openclaw usage --by-skill

5.2 設置預算上限

json
{
  "models": {
    "budget": {
      "daily": 5.00,
      "monthly": 100.00,
      "alert_at": 80
    }
  }
}

5.3 成本優化技巧

使用緩存:相同查詢不重複調用 API。OpenClaw 內置了語義緩存,相似問題會複用之前的結果。

精簡 Prompt:過長的系統提示詞會增加每次調用的 Token 數。定期審查技能的提示詞,去除冗餘內容。

選擇合適的模型:不要所有任務都用最貴的模型。簡單任務用小模型(如硅基流動的 Qwen2.5-7B,約 ¥0.5/百萬 tokens)就夠了,不需要大模型(如 Claude Opus,約 ¥100/百萬 tokens),價格相差上百倍。

減少活躍技能:每個活躍技能的說明都會加入上下文,增加 Token 消耗。只保留常用技能。

長程記憶優化:如果你的使用場景涉及長對話(50+ 輪)或多實例協作,可以考慮安裝 OpenViking 記憶插件。實測可將輸入 Token 消耗降低約 91%,同時提升任務完成率。詳見第九章記憶增強方案

5.4 成本對比

使用模式日均調用月估算費用
硅基流動 DeepSeek V3100 次~¥20-50
混合路由(硅基流動 + Opus)100 次~¥30-80
本地 Ollama + 雲端回退100 次~¥5-15

6. 常見問題

模型切換延遲:不同模型的首次調用可能有冷啓動延遲。Ollama 本地模型需要先加載到顯存,首次響應會慢一些。

本地模型質量不夠:對於複雜任務,本地模型確實不如 Claude Opus。建議設置自動回退:本地模型處理失敗時自動切換到雲端。

API 限流:大部分提供商都有 RPM(每分鐘請求數)限制。如果遇到 429 錯誤,減少併發任務數或升級 API 套餐。


下一步第九章 個人助理與內容創作