Skip to content

第九章 硬件方案:让 Agent 跑在「虾」上

核心问题:如果 Agent 可以跑在 10 美元的硬件上,它会打开什么新的可能性?

1. 从「机房」到「口袋」

1.1 Agent 的「瘦身」之路

回想一下前几章的内容:

  • OpenClaw:需要 Mac Mini($599)或云服务器
  • NanoClaw:可以跑在普通服务器上
  • ZeroClaw:$10 硬件,<5MB 内存
  • IronClaw:企业级安全,需要 PostgreSQL

它们都在做一件事:让 Agent 更轻、更便宜、更容易部署

但 PicoClaw 走到了极致——它让 Agent 跑在了「虾」上

1.2 为什么是「虾」?

PicoClaw 的名字来源于「皮皮虾」(Pippi Shrimp),吉祥物也是一只虾。这个名字很形象:

  • 虾很小:PicoClaw 内存占用 <10MB
  • 虾很便宜:可以运行在 $10 的硬件上
  • 虾很灵活:支持多种架构(ARM、RISC-V、MIPS、x86)

1.3 $10 硬件是什么概念?

$10 能买到什么?

  • 一杯星巴克咖啡
  • 一个月的 Netflix 订阅
  • 或者……一个能运行 AI Agent 的完整计算机

PicoClaw 可以在 LicheeRV-Nano 上运行——E 版本售价 $9.9(带网口),W 版本 $12.9(带 WiFi),尺寸比信用卡还小,但足以运行 Linux 和 PicoClaw。

让我们对比一下:

方案硬件成本内存占用功耗适用场景
OpenClaw$599(Mac Mini)>1GB10W+桌面/服务器
NanoClaw$50(Linux SBC)~100MB2-5W轻量服务器
PicoClaw$10<10MB~3.5W嵌入式/IoT

~3.5W 的功耗意味着什么?

一个 10000mAh 的充电宝(约 $20)可以供电 约 14 小时(基于 ~3.5W 功耗的理论计算)。如果你想做一个随身携带的 AI 助手,这在以前是不可能的。

注意:功耗数据为理论估算值,基于 LicheeRV-Nano 硬件规格和 PicoClaw 软件资源占用计算,实际续航取决于具体工作负载和使用环境。


2. PicoClaw:为硬件而生的 Agent

2.1 项目背景

PicoClaw 由 Sipeed(矽速科技) 开发——这是一家知名的开源硬件公司,专注于 RISC-V 和 ARM 架构的嵌入式开发板。

有趣的是,PicoClaw 的核心代码 95% 是由 AI Agent 生成的。据项目方称,开发团队让 AI 基于 nanobot(HKUDS 的 Python 项目)的架构,用 Go 语言重写并优化,经过"人机回环(Human-in-the-loop)"微调后形成了现在的代码库。

说明:"95% 代码由 AI 生成" 为项目方(Sipeed)的声明,详见 PicoClaw 官方 README。

这本身就是 Agent 编程的一个成功案例:

  • AI 生成:95% 的代码由 Agent 编写
  • 人类审核:关键逻辑和安全检查由人工确认
  • 持续优化:通过多轮迭代达到生产可用

2.2 极致的性能优化

PicoClaw 的数字非常惊人:

指标OpenClawnanobot (HKUDS)PicoClaw
语言TypeScriptPythonGo
RAM>1GB>100MB<10MB
启动~30s~10s<1s
成本$599~$50$10

注意:启动时间和内存占用数据来自各项目官方文档或社区测试报告,实际性能取决于具体硬件配置和工作负载。

<1 秒启动是什么概念?即使在 0.6GHz 的单核处理器上,PicoClaw 也能在 1 秒内完成启动。这意味着它可以快速唤醒、执行任务、然后再次休眠——非常适合电池供电的设备。

2.3 架构设计:为什么选 Go?

PicoClaw 选择 Go 语言有几个关键原因:

① 编译成单个二进制文件 Go 可以交叉编译成静态链接的二进制文件,不依赖运行时。这使得部署极其简单——只需复制一个文件即可。

② 内存占用低 Go 的内存管理比 Python/JavaScript 更高效。PicoClaw 的核心功能只需要 <10MB 内存,而等效的 Python 实现可能需要 100MB+。

③ 跨平台支持 Go 原生支持交叉编译到多种架构:

  • x86_64(Intel/AMD)
  • ARM64(树莓派、M1/M2 Mac)
  • ARMv7(旧版树莓派)
  • RISC-V(LicheeRV、HiFive 等)
  • MIPS(路由器、嵌入式设备)

④ 并发模型 Go 的 goroutine 是轻量级线程,可以在有限的内存下支持大量并发任务。这对于需要同时处理多个请求的 Agent 很重要。


3. 硬件选型:ARM 为什么赢了?

3.1 架构战争:x86 vs ARM vs RISC-V

在嵌入式领域,有三种主要的处理器架构:

x86(Intel/AMD)

  • ✅ 性能强、生态成熟
  • ❌ 功耗高、价格贵、发热大
  • 适合:桌面电脑、服务器

ARM

  • ✅ 功耗低、价格便宜、选择多
  • ✅ 生态成熟(树莓派、手机、IoT)
  • 适合:嵌入式、移动设备、IoT

RISC-V

  • ✅ 开源、免授权费、可定制
  • ⚠️ 生态较新,软件支持相对较少
  • 适合:教育、研究、特定用途芯片

3.2 为什么是 ARM?

PicoClaw 支持所有三种架构,但 ARM 是最实用的选择。原因如下:

① 生态成熟 树莓派已经卖了 5000 多万台,围绕 ARM Linux 的软件生态非常丰富。你能想到的功能,基本上都有现成的方案。

② 性价比 $10-50 就能买到性能不错的 ARM 开发板(树莓派 Zero 2W、LicheeRV-Nano 等)。

③ 功耗控制 ARM 处理器的功耗可以做到 <1W,适合电池供电。x86 即使在低负载下也很难低于 5W。

④ 社区支持 遇到问题很容易找到解决方案——因为太多人用 ARM 了。

3.3 PicoClaw 支持的硬件

PicoClaw 官方推荐的硬件:

入门级($9.9)

  • LicheeRV-Nano:RISC-V 架构,带网口或 WiFi,极简家庭助手

进阶级($39-70)

  • NanoKVM 系列($39-55,RISC-V):带 KVM 功能,可远程控制服务器
  • NanoKVM Pro($60-70,ARM):增强版 KVM,支持更多功能

高级($55-90)

  • MaixCAM/MaixCAM-Pro($55-90):带摄像头,可做智能监控

手机级($0,废物利用)

  • 旧 Android 手机:通过 Termux 运行 PicoClaw
    • 10 年前的旧手机也能跑
    • 自带屏幕、电池、网络
    • 真正的「随身携带」

4. 功耗优化:让 Agent 跑在电池上

4.1 为什么功耗很重要?

想象一下这些场景:

🏕️ 露营助手 你想在野外露营时有一个 AI 助手,但这里没有电源插座。

🏠 智能家居 你想让 Agent 控制家里的设备,但不想每个房间都拉电源线。

🤖 移动机器人 你想做一个会走路的机器人,但电池容量有限。

在这些场景下,每毫瓦都很重要

4.2 PicoClaw 的功耗优势

数字对比

设备功耗10000mAh 充电宝供电时间
Mac Mini10-30W1-3 小时
树莓派 45-8W4-6 小时
树莓派 Zero 2W1-2W15-20 小时
LicheeRV-Nano + PicoClaw~3.5W~14 小时

~3.5W 是如何做到的?

  1. Go 语言高效:没有虚拟机开销,垃圾回收开销较小
  2. 精简功能:只保留核心功能,去掉不必要的依赖
  3. 事件驱动:没有任务时进入休眠,有事件时快速唤醒
  4. 轻量级模型:支持本地小模型(如 TinyLlama),减少网络请求

4.3 实战:延长电池续航的技巧

如果你要让 PicoClaw 跑在电池上,可以考虑这些优化:

① 间歇运行 不需要 24/7 一直运行。可以设置定时唤醒(比如每 15 分钟检查一次),其他时间休眠。

② 降低 CPU 频率 大多数开发板允许你降低 CPU 频率。如果任务不复杂,0.6GHz 就够了。

③ 关闭不必要的外设

  • 不用 HDMI?关闭显卡输出
  • 不用 USB?关闭 USB 控制器
  • 不用 WiFi?用有线网络或间歇连接

④ 使用低功耗模式 Linux 有多种省电模式:

  • powersave:始终最低频率
  • ondemand:需要时提升频率
  • conservative:缓慢提升频率

对于 Agent 场景,conservative 通常是最佳选择。


5. 离线能力:没有网络的 Agent

5.1 为什么要离线?

你可能会问:现在的设备不都有网络吗?为什么要离线?

场景一:隐私保护 你不想把个人数据发送到云端。本地运行意味着你的对话、文件、习惯都留在设备上。

场景二:网络不稳定 你在偏远地区、地下室、或者网络信号差的地方。

场景三:成本考虑 每次调用 API 都要花钱。如果能在本地处理简单任务,可以大幅降低成本。

场景四:响应速度 本地模型响应更快——不需要网络往返。

5.2 本地模型选项

PicoClaw 支持多种本地模型部署方案:

① Ollama

bash
# 在 PicoClaw 所在的设备上安装 Ollama
ollama run tinyllama

# 然后在 PicoClaw 配置中指向本地 Ollama

② llama.cpp 针对嵌入式设备优化的推理引擎,支持量化模型(4-bit、5-bit)。7B 量化模型约需 4GB 内存,1B 以下的小模型(如 TinyLlama)可在 1-2GB 内存的设备上运行(2-bit 量化可在 512MB 设备运行,但性能受限)。

③ vLLM 如果你有足够的内存(2GB+),vLLM 提供更快的推理速度。

5.3 离线 Agent 的能力边界

本地模型很强,但也有局限:

✅ 本地模型擅长的:

  • 文本生成、摘要
  • 简单问答
  • 代码补全
  • 格式转换

❌ 本地模型不擅长的:

  • 需要最新知识的任务(如「今天的新闻」)
  • 复杂推理
  • 多语言翻译(小模型质量较差)

混合方案: PicoClaw 支持「本地优先」策略:

  • 简单任务 → 本地模型处理
  • 复杂任务 → 调用云端 API
  • 无网络时 → 完全本地运行(功能降级)

6. 小结:Agent 的「平民化」

PicoClaw 代表了 Agent 技术的一个新方向:极致的轻量化和低成本

它证明了几件事:

  1. Agen tidak memerlukan perangkat keras yang mahal — perangkat seharga $10 sudah cukup untuk menjalankan fungsi inti
  2. Konsumsi daya yang rendah dimungkinkan — Konsumsi daya <1W menjadikan daya baterai menjadi kenyataan
  3. Operasi offline dapat dilakukan — model lokal dapat memenuhi kebutuhan dasar

Apa dampaknya bagi industri secara keseluruhan?

Untuk pengembang: Anda dapat menyematkan Agen ke dalam skenario yang sebelumnya tidak mungkin dilakukan - rumah pintar, perangkat yang dapat dikenakan, robot...

Untuk pengguna: Asisten AI bukan lagi "layanan cloud", melainkan perangkat lunak yang benar-benar dapat "dimiliki". Ini berjalan di perangkat Anda, tidak memerlukan biaya berlangganan, tidak ada koneksi jaringan, dan data Anda sepenuhnya pribadi.

Untuk Masyarakat: Demokratisasi teknologi AI. Bukan hanya perusahaan besar saja yang bisa menjalankan AI, masyarakat awam juga bisa merasakan teknologi ini dengan perangkat seharga $10.