Skip to content

第九章 硬件方案:讓 Agent 跑在「蝦」上

核心問題:如果 Agent 可以跑在 10 美元的硬件上,它會打開什麼新的可能性?

1. 從「機房」到「口袋」

1.1 Agent 的「瘦身」之路

回想一下前幾章的內容:

  • OpenClaw:需要 Mac Mini($599)或雲服務器
  • NanoClaw:可以跑在普通服務器上
  • ZeroClaw:$10 硬件,<5MB 內存
  • IronClaw:企業級安全,需要 PostgreSQL

它們都在做一件事:讓 Agent 更輕、更便宜、更容易部署

但 PicoClaw 走到了極致——它讓 Agent 跑在了「蝦」上

1.2 爲什麼是「蝦」?

PicoClaw 的名字來源於「皮皮蝦」(Pippi Shrimp),吉祥物也是一隻蝦。這個名字很形象:

  • 蝦很小:PicoClaw 內存佔用 <10MB
  • 蝦很便宜:可以運行在 $10 的硬件上
  • 蝦很靈活:支持多種架構(ARM、RISC-V、MIPS、x86)

1.3 $10 硬件是什麼概念?

$10 能買到什麼?

  • 一杯星巴克咖啡
  • 一個月的 Netflix 訂閱
  • 或者……一個能運行 AI Agent 的完整計算機

PicoClaw 可以在 LicheeRV-Nano 上運行——E 版本售價 $9.9(帶網口),W 版本 $12.9(帶 WiFi),尺寸比信用卡還小,但足以運行 Linux 和 PicoClaw。

讓我們對比一下:

方案硬件成本內存佔用功耗適用場景
OpenClaw$599(Mac Mini)>1GB10W+桌面/服務器
NanoClaw$50(Linux SBC)~100MB2-5W輕量服務器
PicoClaw$10<10MB~3.5W嵌入式/IoT

~3.5W 的功耗意味着什麼?

一個 10000mAh 的充電寶(約 $20)可以供電 約 14 小時(基於 ~3.5W 功耗的理論計算)。如果你想做一個隨身攜帶的 AI 助手,這在以前是不可能的。

注意:功耗數據爲理論估算值,基於 LicheeRV-Nano 硬件規格和 PicoClaw 軟件資源佔用計算,實際續航取決於具體工作負載和使用環境。


2. PicoClaw:爲硬件而生的 Agent

2.1 項目背景

PicoClaw 由 Sipeed(矽速科技) 開發——這是一家知名的開源硬件公司,專注於 RISC-V 和 ARM 架構的嵌入式開發板。

有趣的是,PicoClaw 的核心代碼 95% 是由 AI Agent 生成的。據項目方稱,開發團隊讓 AI 基於 nanobot(HKUDS 的 Python 項目)的架構,用 Go 語言重寫並優化,經過"人機迴環(Human-in-the-loop)"微調後形成了現在的代碼庫。

說明:"95% 代碼由 AI 生成" 爲項目方(Sipeed)的聲明,詳見 PicoClaw 官方 README。

這本身就是 Agent 編程的一個成功案例:

  • AI 生成:95% 的代碼由 Agent 編寫
  • 人類審覈:關鍵邏輯和安全檢查由人工確認
  • 持續優化:通過多輪迭代達到生產可用

2.2 極致的性能優化

PicoClaw 的數字非常驚人:

指標OpenClawnanobot (HKUDS)PicoClaw
語言TypeScriptPythonGo
RAM>1GB>100MB<10MB
啓動~30s~10s<1s
成本$599~$50$10

注意:啓動時間和內存佔用數據來自各項目官方文檔或社區測試報告,實際性能取決於具體硬件配置和工作負載。

<1 秒啓動是什麼概念?即使在 0.6GHz 的單核處理器上,PicoClaw 也能在 1 秒內完成啓動。這意味着它可以快速喚醒、執行任務、然後再次休眠——非常適合電池供電的設備。

2.3 架構設計:爲什麼選 Go?

PicoClaw 選擇 Go 語言有幾個關鍵原因:

① 編譯成單個二進制文件 Go 可以交叉編譯成靜態鏈接的二進制文件,不依賴運行時。這使得部署極其簡單——只需複製一個文件即可。

② 內存佔用低 Go 的內存管理比 Python/JavaScript 更高效。PicoClaw 的核心功能只需要 <10MB 內存,而等效的 Python 實現可能需要 100MB+。

③ 跨平臺支持 Go 原生支持交叉編譯到多種架構:

  • x86_64(Intel/AMD)
  • ARM64(樹莓派、M1/M2 Mac)
  • ARMv7(舊版樹莓派)
  • RISC-V(LicheeRV、HiFive 等)
  • MIPS(路由器、嵌入式設備)

④ 併發模型 Go 的 goroutine 是輕量級線程,可以在有限的內存下支持大量併發任務。這對於需要同時處理多個請求的 Agent 很重要。


3. 硬件選型:ARM 爲什麼贏了?

3.1 架構戰爭:x86 vs ARM vs RISC-V

在嵌入式領域,有三種主要的處理器架構:

x86(Intel/AMD)

  • ✅ 性能強、生態成熟
  • ❌ 功耗高、價格貴、發熱大
  • 適合:桌面電腦、服務器

ARM

  • ✅ 功耗低、價格便宜、選擇多
  • ✅ 生態成熟(樹莓派、手機、IoT)
  • 適合:嵌入式、移動設備、IoT

RISC-V

  • ✅ 開源、免授權費、可定製
  • ⚠️ 生態較新,軟件支持相對較少
  • 適合:教育、研究、特定用途芯片

3.2 爲什麼是 ARM?

PicoClaw 支持所有三種架構,但 ARM 是最實用的選擇。原因如下:

① 生態成熟 樹莓派已經賣了 5000 多萬臺,圍繞 ARM Linux 的軟件生態非常豐富。你能想到的功能,基本上都有現成的方案。

② 性價比 $10-50 就能買到性能不錯的 ARM 開發板(樹莓派 Zero 2W、LicheeRV-Nano 等)。

③ 功耗控制 ARM 處理器的功耗可以做到 <1W,適合電池供電。x86 即使在低負載下也很難低於 5W。

④ 社區支持 遇到問題很容易找到解決方案——因爲太多人用 ARM 了。

3.3 PicoClaw 支持的硬件

PicoClaw 官方推薦的硬件:

入門級($9.9)

  • LicheeRV-Nano:RISC-V 架構,帶網口或 WiFi,極簡家庭助手

進階級($39-70)

  • NanoKVM 系列($39-55,RISC-V):帶 KVM 功能,可遠程控制服務器
  • NanoKVM Pro($60-70,ARM):增強版 KVM,支持更多功能

高級($55-90)

  • MaixCAM/MaixCAM-Pro($55-90):帶攝像頭,可做智能監控

手機級($0,廢物利用)

  • 舊 Android 手機:通過 Termux 運行 PicoClaw
    • 10 年前的舊手機也能跑
    • 自帶屏幕、電池、網絡
    • 真正的「隨身攜帶」

4. 功耗優化:讓 Agent 跑在電池上

4.1 爲什麼功耗很重要?

想象一下這些場景:

🏕️ 露營助手 你想在野外露營時有一個 AI 助手,但這裏沒有電源插座。

🏠 智能家居 你想讓 Agent 控制家裏的設備,但不想每個房間都拉電源線。

🤖 移動機器人 你想做一個會走路的機器人,但電池容量有限。

在這些場景下,每毫瓦都很重要

4.2 PicoClaw 的功耗優勢

數字對比

設備功耗10000mAh 充電寶供電時間
Mac Mini10-30W1-3 小時
樹莓派 45-8W4-6 小時
樹莓派 Zero 2W1-2W15-20 小時
LicheeRV-Nano + PicoClaw~3.5W~14 小時

~3.5W 是如何做到的?

  1. Go 語言高效:沒有虛擬機開銷,垃圾回收開銷較小
  2. 精簡功能:只保留核心功能,去掉不必要的依賴
  3. 事件驅動:沒有任務時進入休眠,有事件時快速喚醒
  4. 輕量級模型:支持本地小模型(如 TinyLlama),減少網絡請求

4.3 實戰:延長電池續航的技巧

如果你要讓 PicoClaw 跑在電池上,可以考慮這些優化:

① 間歇運行 不需要 24/7 一直運行。可以設置定時喚醒(比如每 15 分鐘檢查一次),其他時間休眠。

② 降低 CPU 頻率 大多數開發板允許你降低 CPU 頻率。如果任務不復雜,0.6GHz 就夠了。

③ 關閉不必要的外設

  • 不用 HDMI?關閉顯卡輸出
  • 不用 USB?關閉 USB 控制器
  • 不用 WiFi?用有線網絡或間歇連接

④ 使用低功耗模式 Linux 有多種省電模式:

  • powersave:始終最低頻率
  • ondemand:需要時提升頻率
  • conservative:緩慢提升頻率

對於 Agent 場景,conservative 通常是最佳選擇。


5. 離線能力:沒有網絡的 Agent

5.1 爲什麼要離線?

你可能會問:現在的設備不都有網絡嗎?爲什麼要離線?

場景一:隱私保護 你不想把個人數據發送到雲端。本地運行意味着你的對話、文件、習慣都留在設備上。

場景二:網絡不穩定 你在偏遠地區、地下室、或者網絡信號差的地方。

場景三:成本考慮 每次調用 API 都要花錢。如果能在本地處理簡單任務,可以大幅降低成本。

場景四:響應速度 本地模型響應更快——不需要網絡往返。

5.2 本地模型選項

PicoClaw 支持多種本地模型部署方案:

① Ollama

bash
# 在 PicoClaw 所在的設備上安裝 Ollama
ollama run tinyllama

# 然後在 PicoClaw 配置中指向本地 Ollama

② llama.cpp 針對嵌入式設備優化的推理引擎,支持量化模型(4-bit、5-bit)。7B 量化模型約需 4GB 內存,1B 以下的小模型(如 TinyLlama)可在 1-2GB 內存的設備上運行(2-bit 量化可在 512MB 設備運行,但性能受限)。

③ vLLM 如果你有足夠的內存(2GB+),vLLM 提供更快的推理速度。

5.3 離線 Agent 的能力邊界

本地模型很強,但也有侷限:

✅ 本地模型擅長的:

  • 文本生成、摘要
  • 簡單問答
  • 代碼補全
  • 格式轉換

❌ 本地模型不擅長的:

  • 需要最新知識的任務(如「今天的新聞」)
  • 複雜推理
  • 多語言翻譯(小模型質量較差)

混合方案: PicoClaw 支持「本地優先」策略:

  • 簡單任務 → 本地模型處理
  • 複雜任務 → 調用雲端 API
  • 無網絡時 → 完全本地運行(功能降級)

6. 小結:Agent 的「平民化」

PicoClaw 代表了 Agent 技術的一個新方向:極致的輕量化和低成本

它證明了幾件事:

  1. Agent 不需要昂貴的硬件 — $10 的設備足以運行核心功能
  2. 低功耗是可能的 — <1W 的功耗讓電池供電成爲現實
  3. 離線運行是可行的 — 本地模型可以滿足基本需求

這對整個行業意味着什麼?

對於開發者:你可以把 Agent 嵌入到以前不可能的場景——智能家居、可穿戴設備、機器人……

對於用戶:AI 助手不再是「雲端服務」,而是可以真正「擁有」的軟件。它跑在你的設備上,不需要訂閱費,不需要網絡連接,數據完全私有。

對於社會:AI 技術的民主化。不是隻有大公司才能運行 AI,普通人也可以用 $10 的設備體驗這項技術。