第九章 硬件方案:让 Agent 跑在「虾」上
核心问题:如果 Agent 可以跑在 10 美元的硬件上,它会打开什么新的可能性?
1. 从「机房」到「口袋」
1.1 Agent 的「瘦身」之路
回想一下前几章的内容:
- OpenClaw:需要 Mac Mini($599)或云服务器
- NanoClaw:可以跑在普通服务器上
- ZeroClaw:$10 硬件,<5MB 内存
- IronClaw:企业级安全,需要 PostgreSQL
它们都在做一件事:让 Agent 更轻、更便宜、更容易部署。
但 PicoClaw 走到了极致——它让 Agent 跑在了「虾」上。
1.2 为什么是「虾」?
PicoClaw 的名字来源于「皮皮虾」(Pippi Shrimp),吉祥物也是一只虾。这个名字很形象:
- 虾很小:PicoClaw 内存占用 <10MB
- 虾很便宜:可以运行在 $10 的硬件上
- 虾很灵活:支持多种架构(ARM、RISC-V、MIPS、x86)
1.3 $10 硬件是什么概念?
$10 能买到什么?
- 一杯星巴克咖啡
- 一个月的 Netflix 订阅
- 或者……一个能运行 AI Agent 的完整计算机
PicoClaw 可以在 LicheeRV-Nano 上运行——E 版本售价 $9.9(带网口),W 版本 $12.9(带 WiFi),尺寸比信用卡还小,但足以运行 Linux 和 PicoClaw。
让我们对比一下:
| 方案 | 硬件成本 | 内存占用 | 功耗 | 适用场景 |
|---|---|---|---|---|
| OpenClaw | $599(Mac Mini) | >1GB | 10W+ | 桌面/服务器 |
| NanoClaw | $50(Linux SBC) | ~100MB | 2-5W | 轻量服务器 |
| PicoClaw | $10 | <10MB | ~3.5W | 嵌入式/IoT |
~3.5W 的功耗意味着什么?
一个 10000mAh 的充电宝(约 $20)可以供电 约 14 小时(基于 ~3.5W 功耗的理论计算)。如果你想做一个随身携带的 AI 助手,这在以前是不可能的。
注意:功耗数据为理论估算值,基于 LicheeRV-Nano 硬件规格和 PicoClaw 软件资源占用计算,实际续航取决于具体工作负载和使用环境。
2. PicoClaw:为硬件而生的 Agent
2.1 项目背景
PicoClaw 由 Sipeed(矽速科技) 开发——这是一家知名的开源硬件公司,专注于 RISC-V 和 ARM 架构的嵌入式开发板。
有趣的是,PicoClaw 的核心代码 95% 是由 AI Agent 生成的。据项目方称,开发团队让 AI 基于 nanobot(HKUDS 的 Python 项目)的架构,用 Go 语言重写并优化,经过"人机回环(Human-in-the-loop)"微调后形成了现在的代码库。
说明:"95% 代码由 AI 生成" 为项目方(Sipeed)的声明,详见 PicoClaw 官方 README。
这本身就是 Agent 编程的一个成功案例:
- AI 生成:95% 的代码由 Agent 编写
- 人类审核:关键逻辑和安全检查由人工确认
- 持续优化:通过多轮迭代达到生产可用
2.2 极致的性能优化
PicoClaw 的数字非常惊人:
| 指标 | OpenClaw | nanobot (HKUDS) | PicoClaw |
|---|---|---|---|
| 语言 | TypeScript | Python | Go |
| RAM | >1GB | >100MB | <10MB |
| 启动 | ~30s | ~10s | <1s |
| 成本 | $599 | ~$50 | $10 |
注意:启动时间和内存占用数据来自各项目官方文档或社区测试报告,实际性能取决于具体硬件配置和工作负载。
<1 秒启动是什么概念?即使在 0.6GHz 的单核处理器上,PicoClaw 也能在 1 秒内完成启动。这意味着它可以快速唤醒、执行任务、然后再次休眠——非常适合电池供电的设备。
2.3 架构设计:为什么选 Go?
PicoClaw 选择 Go 语言有几个关键原因:
① 编译成单个二进制文件 Go 可以交叉编译成静态链接的二进制文件,不依赖运行时。这使得部署极其简单——只需复制一个文件即可。
② 内存占用低 Go 的内存管理比 Python/JavaScript 更高效。PicoClaw 的核心功能只需要 <10MB 内存,而等效的 Python 实现可能需要 100MB+。
③ 跨平台支持 Go 原生支持交叉编译到多种架构:
- x86_64(Intel/AMD)
- ARM64(树莓派、M1/M2 Mac)
- ARMv7(旧版树莓派)
- RISC-V(LicheeRV、HiFive 等)
- MIPS(路由器、嵌入式设备)
④ 并发模型 Go 的 goroutine 是轻量级线程,可以在有限的内存下支持大量并发任务。这对于需要同时处理多个请求的 Agent 很重要。
3. 硬件选型:ARM 为什么赢了?
3.1 架构战争:x86 vs ARM vs RISC-V
在嵌入式领域,有三种主要的处理器架构:
x86(Intel/AMD)
- ✅ 性能强、生态成熟
- ❌ 功耗高、价格贵、发热大
- 适合:桌面电脑、服务器
ARM
- ✅ 功耗低、价格便宜、选择多
- ✅ 生态成熟(树莓派、手机、IoT)
- 适合:嵌入式、移动设备、IoT
RISC-V
- ✅ 开源、免授权费、可定制
- ⚠️ 生态较新,软件支持相对较少
- 适合:教育、研究、特定用途芯片
3.2 为什么是 ARM?
PicoClaw 支持所有三种架构,但 ARM 是最实用的选择。原因如下:
① 生态成熟 树莓派已经卖了 5000 多万台,围绕 ARM Linux 的软件生态非常丰富。你能想到的功能,基本上都有现成的方案。
② 性价比 $10-50 就能买到性能不错的 ARM 开发板(树莓派 Zero 2W、LicheeRV-Nano 等)。
③ 功耗控制 ARM 处理器的功耗可以做到 <1W,适合电池供电。x86 即使在低负载下也很难低于 5W。
④ 社区支持 遇到问题很容易找到解决方案——因为太多人用 ARM 了。
3.3 PicoClaw 支持的硬件
PicoClaw 官方推荐的硬件:
入门级($9.9)
- LicheeRV-Nano:RISC-V 架构,带网口或 WiFi,极简家庭助手
进阶级($39-70)
- NanoKVM 系列($39-55,RISC-V):带 KVM 功能,可远程控制服务器
- NanoKVM Pro($60-70,ARM):增强版 KVM,支持更多功能
高级($55-90)
- MaixCAM/MaixCAM-Pro($55-90):带摄像头,可做智能监控
手机级($0,废物利用)
- 旧 Android 手机:通过 Termux 运行 PicoClaw
- 10 年前的旧手机也能跑
- 自带屏幕、电池、网络
- 真正的「随身携带」
4. 功耗优化:让 Agent 跑在电池上
4.1 为什么功耗很重要?
想象一下这些场景:
🏕️ 露营助手 你想在野外露营时有一个 AI 助手,但这里没有电源插座。
🏠 智能家居 你想让 Agent 控制家里的设备,但不想每个房间都拉电源线。
🤖 移动机器人 你想做一个会走路的机器人,但电池容量有限。
在这些场景下,每毫瓦都很重要。
4.2 PicoClaw 的功耗优势
数字对比:
| 设备 | 功耗 | 10000mAh 充电宝供电时间 |
|---|---|---|
| Mac Mini | 10-30W | 1-3 小时 |
| 树莓派 4 | 5-8W | 4-6 小时 |
| 树莓派 Zero 2W | 1-2W | 15-20 小时 |
| LicheeRV-Nano + PicoClaw | ~3.5W | ~14 小时 |
~3.5W 是如何做到的?
- Go 语言高效:没有虚拟机开销,垃圾回收开销较小
- 精简功能:只保留核心功能,去掉不必要的依赖
- 事件驱动:没有任务时进入休眠,有事件时快速唤醒
- 轻量级模型:支持本地小模型(如 TinyLlama),减少网络请求
4.3 实战:延长电池续航的技巧
如果你要让 PicoClaw 跑在电池上,可以考虑这些优化:
① 间歇运行 不需要 24/7 一直运行。可以设置定时唤醒(比如每 15 分钟检查一次),其他时间休眠。
② 降低 CPU 频率 大多数开发板允许你降低 CPU 频率。如果任务不复杂,0.6GHz 就够了。
③ 关闭不必要的外设
- 不用 HDMI?关闭显卡输出
- 不用 USB?关闭 USB 控制器
- 不用 WiFi?用有线网络或间歇连接
④ 使用低功耗模式 Linux 有多种省电模式:
powersave:始终最低频率ondemand:需要时提升频率conservative:缓慢提升频率
对于 Agent 场景,conservative 通常是最佳选择。
5. 离线能力:没有网络的 Agent
5.1 为什么要离线?
你可能会问:现在的设备不都有网络吗?为什么要离线?
场景一:隐私保护 你不想把个人数据发送到云端。本地运行意味着你的对话、文件、习惯都留在设备上。
场景二:网络不稳定 你在偏远地区、地下室、或者网络信号差的地方。
场景三:成本考虑 每次调用 API 都要花钱。如果能在本地处理简单任务,可以大幅降低成本。
场景四:响应速度 本地模型响应更快——不需要网络往返。
5.2 本地模型选项
PicoClaw 支持多种本地模型部署方案:
① Ollama
# 在 PicoClaw 所在的设备上安装 Ollama
ollama run tinyllama
# 然后在 PicoClaw 配置中指向本地 Ollama② llama.cpp 针对嵌入式设备优化的推理引擎,支持量化模型(4-bit、5-bit)。7B 量化模型约需 4GB 内存,1B 以下的小模型(如 TinyLlama)可在 1-2GB 内存的设备上运行(2-bit 量化可在 512MB 设备运行,但性能受限)。
③ vLLM 如果你有足够的内存(2GB+),vLLM 提供更快的推理速度。
5.3 离线 Agent 的能力边界
本地模型很强,但也有局限:
✅ 本地模型擅长的:
- 文本生成、摘要
- 简单问答
- 代码补全
- 格式转换
❌ 本地模型不擅长的:
- 需要最新知识的任务(如「今天的新闻」)
- 复杂推理
- 多语言翻译(小模型质量较差)
混合方案: PicoClaw 支持「本地优先」策略:
- 简单任务 → 本地模型处理
- 复杂任务 → 调用云端 API
- 无网络时 → 完全本地运行(功能降级)
6. 小结:Agent 的「平民化」
PicoClaw 代表了 Agent 技术的一个新方向:极致的轻量化和低成本。
它证明了几件事:
- ตัวแทนไม่จำเป็นต้องใช้ฮาร์ดแวร์ราคาแพง — อุปกรณ์ราคา 10 ดอลลาร์ก็เพียงพอที่จะใช้งานฟังก์ชันหลักได้
- ใช้พลังงานต่ำได้ — การใช้พลังงาน <1W ทำให้พลังงานแบตเตอรี่เป็นจริง
- สามารถใช้งานแบบออฟไลน์ได้ — รุ่นเฉพาะเครื่องสามารถตอบสนองความต้องการขั้นพื้นฐานได้
สิ่งนี้หมายความว่าอย่างไรสำหรับอุตสาหกรรมโดยรวม?
สำหรับนักพัฒนา: คุณสามารถฝัง Agent ในสถานการณ์ที่ก่อนหน้านี้ไม่สามารถทำได้ เช่น บ้านอัจฉริยะ อุปกรณ์สวมใส่ได้ หุ่นยนต์...
สำหรับผู้ใช้: ผู้ช่วย AI ไม่ใช่ "บริการคลาวด์" อีกต่อไป แต่เป็นซอฟต์แวร์ที่สามารถ "เป็นเจ้าของ" ได้อย่างแท้จริง มันทำงานบนอุปกรณ์ของคุณ ไม่ต้องเสียค่าธรรมเนียมการสมัครสมาชิก ไม่มีการเชื่อมต่อเครือข่าย และข้อมูลของคุณเป็นส่วนตัวโดยสมบูรณ์
เพื่อสังคม: การทำให้เทคโนโลยี AI เป็นประชาธิปไตย ไม่ใช่แค่บริษัทขนาดใหญ่เท่านั้นที่สามารถใช้งาน AI ได้ ผู้คนทั่วไปก็สามารถสัมผัสประสบการณ์เทคโนโลยีนี้ได้ด้วยอุปกรณ์ราคา 10 ดอลลาร์