第九章 硬件方案:讓 Agent 跑在「蝦」上
核心問題:如果 Agent 可以跑在 10 美元的硬件上,它會打開什麼新的可能性?
1. 從「機房」到「口袋」
1.1 Agent 的「瘦身」之路
回想一下前幾章的內容:
- OpenClaw:需要 Mac Mini($599)或雲服務器
- NanoClaw:可以跑在普通服務器上
- ZeroClaw:$10 硬件,<5MB 內存
- IronClaw:企業級安全,需要 PostgreSQL
它們都在做一件事:讓 Agent 更輕、更便宜、更容易部署。
但 PicoClaw 走到了極致——它讓 Agent 跑在了「蝦」上。
1.2 爲什麼是「蝦」?
PicoClaw 的名字來源於「皮皮蝦」(Pippi Shrimp),吉祥物也是一隻蝦。這個名字很形象:
- 蝦很小:PicoClaw 內存佔用 <10MB
- 蝦很便宜:可以運行在 $10 的硬件上
- 蝦很靈活:支持多種架構(ARM、RISC-V、MIPS、x86)
1.3 $10 硬件是什麼概念?
$10 能買到什麼?
- 一杯星巴克咖啡
- 一個月的 Netflix 訂閱
- 或者……一個能運行 AI Agent 的完整計算機
PicoClaw 可以在 LicheeRV-Nano 上運行——E 版本售價 $9.9(帶網口),W 版本 $12.9(帶 WiFi),尺寸比信用卡還小,但足以運行 Linux 和 PicoClaw。
讓我們對比一下:
| 方案 | 硬件成本 | 內存佔用 | 功耗 | 適用場景 |
|---|---|---|---|---|
| OpenClaw | $599(Mac Mini) | >1GB | 10W+ | 桌面/服務器 |
| NanoClaw | $50(Linux SBC) | ~100MB | 2-5W | 輕量服務器 |
| PicoClaw | $10 | <10MB | ~3.5W | 嵌入式/IoT |
~3.5W 的功耗意味着什麼?
一個 10000mAh 的充電寶(約 $20)可以供電 約 14 小時(基於 ~3.5W 功耗的理論計算)。如果你想做一個隨身攜帶的 AI 助手,這在以前是不可能的。
注意:功耗數據爲理論估算值,基於 LicheeRV-Nano 硬件規格和 PicoClaw 軟件資源佔用計算,實際續航取決於具體工作負載和使用環境。
2. PicoClaw:爲硬件而生的 Agent
2.1 項目背景
PicoClaw 由 Sipeed(矽速科技) 開發——這是一家知名的開源硬件公司,專注於 RISC-V 和 ARM 架構的嵌入式開發板。
有趣的是,PicoClaw 的核心代碼 95% 是由 AI Agent 生成的。據項目方稱,開發團隊讓 AI 基於 nanobot(HKUDS 的 Python 項目)的架構,用 Go 語言重寫並優化,經過"人機迴環(Human-in-the-loop)"微調後形成了現在的代碼庫。
說明:"95% 代碼由 AI 生成" 爲項目方(Sipeed)的聲明,詳見 PicoClaw 官方 README。
這本身就是 Agent 編程的一個成功案例:
- AI 生成:95% 的代碼由 Agent 編寫
- 人類審覈:關鍵邏輯和安全檢查由人工確認
- 持續優化:通過多輪迭代達到生產可用
2.2 極致的性能優化
PicoClaw 的數字非常驚人:
| 指標 | OpenClaw | nanobot (HKUDS) | PicoClaw |
|---|---|---|---|
| 語言 | TypeScript | Python | Go |
| RAM | >1GB | >100MB | <10MB |
| 啓動 | ~30s | ~10s | <1s |
| 成本 | $599 | ~$50 | $10 |
注意:啓動時間和內存佔用數據來自各項目官方文檔或社區測試報告,實際性能取決於具體硬件配置和工作負載。
<1 秒啓動是什麼概念?即使在 0.6GHz 的單核處理器上,PicoClaw 也能在 1 秒內完成啓動。這意味着它可以快速喚醒、執行任務、然後再次休眠——非常適合電池供電的設備。
2.3 架構設計:爲什麼選 Go?
PicoClaw 選擇 Go 語言有幾個關鍵原因:
① 編譯成單個二進制文件 Go 可以交叉編譯成靜態鏈接的二進制文件,不依賴運行時。這使得部署極其簡單——只需複製一個文件即可。
② 內存佔用低 Go 的內存管理比 Python/JavaScript 更高效。PicoClaw 的核心功能只需要 <10MB 內存,而等效的 Python 實現可能需要 100MB+。
③ 跨平臺支持 Go 原生支持交叉編譯到多種架構:
- x86_64(Intel/AMD)
- ARM64(樹莓派、M1/M2 Mac)
- ARMv7(舊版樹莓派)
- RISC-V(LicheeRV、HiFive 等)
- MIPS(路由器、嵌入式設備)
④ 併發模型 Go 的 goroutine 是輕量級線程,可以在有限的內存下支持大量併發任務。這對於需要同時處理多個請求的 Agent 很重要。
3. 硬件選型:ARM 爲什麼贏了?
3.1 架構戰爭:x86 vs ARM vs RISC-V
在嵌入式領域,有三種主要的處理器架構:
x86(Intel/AMD)
- ✅ 性能強、生態成熟
- ❌ 功耗高、價格貴、發熱大
- 適合:桌面電腦、服務器
ARM
- ✅ 功耗低、價格便宜、選擇多
- ✅ 生態成熟(樹莓派、手機、IoT)
- 適合:嵌入式、移動設備、IoT
RISC-V
- ✅ 開源、免授權費、可定製
- ⚠️ 生態較新,軟件支持相對較少
- 適合:教育、研究、特定用途芯片
3.2 爲什麼是 ARM?
PicoClaw 支持所有三種架構,但 ARM 是最實用的選擇。原因如下:
① 生態成熟 樹莓派已經賣了 5000 多萬臺,圍繞 ARM Linux 的軟件生態非常豐富。你能想到的功能,基本上都有現成的方案。
② 性價比 $10-50 就能買到性能不錯的 ARM 開發板(樹莓派 Zero 2W、LicheeRV-Nano 等)。
③ 功耗控制 ARM 處理器的功耗可以做到 <1W,適合電池供電。x86 即使在低負載下也很難低於 5W。
④ 社區支持 遇到問題很容易找到解決方案——因爲太多人用 ARM 了。
3.3 PicoClaw 支持的硬件
PicoClaw 官方推薦的硬件:
入門級($9.9)
- LicheeRV-Nano:RISC-V 架構,帶網口或 WiFi,極簡家庭助手
進階級($39-70)
- NanoKVM 系列($39-55,RISC-V):帶 KVM 功能,可遠程控制服務器
- NanoKVM Pro($60-70,ARM):增強版 KVM,支持更多功能
高級($55-90)
- MaixCAM/MaixCAM-Pro($55-90):帶攝像頭,可做智能監控
手機級($0,廢物利用)
- 舊 Android 手機:通過 Termux 運行 PicoClaw
- 10 年前的舊手機也能跑
- 自帶屏幕、電池、網絡
- 真正的「隨身攜帶」
4. 功耗優化:讓 Agent 跑在電池上
4.1 爲什麼功耗很重要?
想象一下這些場景:
🏕️ 露營助手 你想在野外露營時有一個 AI 助手,但這裏沒有電源插座。
🏠 智能家居 你想讓 Agent 控制家裏的設備,但不想每個房間都拉電源線。
🤖 移動機器人 你想做一個會走路的機器人,但電池容量有限。
在這些場景下,每毫瓦都很重要。
4.2 PicoClaw 的功耗優勢
數字對比:
| 設備 | 功耗 | 10000mAh 充電寶供電時間 |
|---|---|---|
| Mac Mini | 10-30W | 1-3 小時 |
| 樹莓派 4 | 5-8W | 4-6 小時 |
| 樹莓派 Zero 2W | 1-2W | 15-20 小時 |
| LicheeRV-Nano + PicoClaw | ~3.5W | ~14 小時 |
~3.5W 是如何做到的?
- Go 語言高效:沒有虛擬機開銷,垃圾回收開銷較小
- 精簡功能:只保留核心功能,去掉不必要的依賴
- 事件驅動:沒有任務時進入休眠,有事件時快速喚醒
- 輕量級模型:支持本地小模型(如 TinyLlama),減少網絡請求
4.3 實戰:延長電池續航的技巧
如果你要讓 PicoClaw 跑在電池上,可以考慮這些優化:
① 間歇運行 不需要 24/7 一直運行。可以設置定時喚醒(比如每 15 分鐘檢查一次),其他時間休眠。
② 降低 CPU 頻率 大多數開發板允許你降低 CPU 頻率。如果任務不復雜,0.6GHz 就夠了。
③ 關閉不必要的外設
- 不用 HDMI?關閉顯卡輸出
- 不用 USB?關閉 USB 控制器
- 不用 WiFi?用有線網絡或間歇連接
④ 使用低功耗模式 Linux 有多種省電模式:
powersave:始終最低頻率ondemand:需要時提升頻率conservative:緩慢提升頻率
對於 Agent 場景,conservative 通常是最佳選擇。
5. 離線能力:沒有網絡的 Agent
5.1 爲什麼要離線?
你可能會問:現在的設備不都有網絡嗎?爲什麼要離線?
場景一:隱私保護 你不想把個人數據發送到雲端。本地運行意味着你的對話、文件、習慣都留在設備上。
場景二:網絡不穩定 你在偏遠地區、地下室、或者網絡信號差的地方。
場景三:成本考慮 每次調用 API 都要花錢。如果能在本地處理簡單任務,可以大幅降低成本。
場景四:響應速度 本地模型響應更快——不需要網絡往返。
5.2 本地模型選項
PicoClaw 支持多種本地模型部署方案:
① Ollama
# 在 PicoClaw 所在的設備上安裝 Ollama
ollama run tinyllama
# 然後在 PicoClaw 配置中指向本地 Ollama② llama.cpp 針對嵌入式設備優化的推理引擎,支持量化模型(4-bit、5-bit)。7B 量化模型約需 4GB 內存,1B 以下的小模型(如 TinyLlama)可在 1-2GB 內存的設備上運行(2-bit 量化可在 512MB 設備運行,但性能受限)。
③ vLLM 如果你有足夠的內存(2GB+),vLLM 提供更快的推理速度。
5.3 離線 Agent 的能力邊界
本地模型很強,但也有侷限:
✅ 本地模型擅長的:
- 文本生成、摘要
- 簡單問答
- 代碼補全
- 格式轉換
❌ 本地模型不擅長的:
- 需要最新知識的任務(如「今天的新聞」)
- 複雜推理
- 多語言翻譯(小模型質量較差)
混合方案: PicoClaw 支持「本地優先」策略:
- 簡單任務 → 本地模型處理
- 複雜任務 → 調用雲端 API
- 無網絡時 → 完全本地運行(功能降級)
6. 小結:Agent 的「平民化」
PicoClaw 代表了 Agent 技術的一個新方向:極致的輕量化和低成本。
它證明了幾件事:
- Agent 不需要昂貴的硬件 — $10 的設備足以運行核心功能
- 低功耗是可能的 — <1W 的功耗讓電池供電成爲現實
- 離線運行是可行的 — 本地模型可以滿足基本需求
這對整個行業意味着什麼?
對於開發者:你可以把 Agent 嵌入到以前不可能的場景——智能家居、可穿戴設備、機器人……
對於用戶:AI 助手不再是「雲端服務」,而是可以真正「擁有」的軟件。它跑在你的設備上,不需要訂閱費,不需要網絡連接,數據完全私有。
對於社會:AI 技術的民主化。不是隻有大公司才能運行 AI,普通人也可以用 $10 的設備體驗這項技術。