Skip to content

第九章 硬件方案:让 Agent 跑在「虾」上

核心问题:如果 Agent 可以跑在 10 美元的硬件上,它会打开什么新的可能性?

1. 从「机房」到「口袋」

1.1 Agent 的「瘦身」之路

回想一下前几章的内容:

  • OpenClaw:需要 Mac Mini($599)或云服务器
  • NanoClaw:可以跑在普通服务器上
  • ZeroClaw:$10 硬件,<5MB 内存
  • IronClaw:企业级安全,需要 PostgreSQL

它们都在做一件事:让 Agent 更轻、更便宜、更容易部署

但 PicoClaw 走到了极致——它让 Agent 跑在了「虾」上

1.2 为什么是「虾」?

PicoClaw 的名字来源于「皮皮虾」(Pippi Shrimp),吉祥物也是一只虾。这个名字很形象:

  • 虾很小:PicoClaw 内存占用 <10MB
  • 虾很便宜:可以运行在 $10 的硬件上
  • 虾很灵活:支持多种架构(ARM、RISC-V、MIPS、x86)

1.3 $10 硬件是什么概念?

$10 能买到什么?

  • 一杯星巴克咖啡
  • 一个月的 Netflix 订阅
  • 或者……一个能运行 AI Agent 的完整计算机

PicoClaw 可以在 LicheeRV-Nano 上运行——E 版本售价 $9.9(带网口),W 版本 $12.9(带 WiFi),尺寸比信用卡还小,但足以运行 Linux 和 PicoClaw。

让我们对比一下:

方案硬件成本内存占用功耗适用场景
OpenClaw$599(Mac Mini)>1GB10W+桌面/服务器
NanoClaw$50(Linux SBC)~100MB2-5W轻量服务器
PicoClaw$10<10MB~3.5W嵌入式/IoT

~3.5W 的功耗意味着什么?

一个 10000mAh 的充电宝(约 $20)可以供电 约 14 小时(基于 ~3.5W 功耗的理论计算)。如果你想做一个随身携带的 AI 助手,这在以前是不可能的。

注意:功耗数据为理论估算值,基于 LicheeRV-Nano 硬件规格和 PicoClaw 软件资源占用计算,实际续航取决于具体工作负载和使用环境。


2. PicoClaw:为硬件而生的 Agent

2.1 项目背景

PicoClaw 由 Sipeed(矽速科技) 开发——这是一家知名的开源硬件公司,专注于 RISC-V 和 ARM 架构的嵌入式开发板。

有趣的是,PicoClaw 的核心代码 95% 是由 AI Agent 生成的。据项目方称,开发团队让 AI 基于 nanobot(HKUDS 的 Python 项目)的架构,用 Go 语言重写并优化,经过"人机回环(Human-in-the-loop)"微调后形成了现在的代码库。

说明:"95% 代码由 AI 生成" 为项目方(Sipeed)的声明,详见 PicoClaw 官方 README。

这本身就是 Agent 编程的一个成功案例:

  • AI 生成:95% 的代码由 Agent 编写
  • 人类审核:关键逻辑和安全检查由人工确认
  • 持续优化:通过多轮迭代达到生产可用

2.2 极致的性能优化

PicoClaw 的数字非常惊人:

指标OpenClawnanobot (HKUDS)PicoClaw
语言TypeScriptPythonGo
RAM>1GB>100MB<10MB
启动~30s~10s<1s
成本$599~$50$10

注意:启动时间和内存占用数据来自各项目官方文档或社区测试报告,实际性能取决于具体硬件配置和工作负载。

<1 秒启动是什么概念?即使在 0.6GHz 的单核处理器上,PicoClaw 也能在 1 秒内完成启动。这意味着它可以快速唤醒、执行任务、然后再次休眠——非常适合电池供电的设备。

2.3 架构设计:为什么选 Go?

PicoClaw 选择 Go 语言有几个关键原因:

① 编译成单个二进制文件 Go 可以交叉编译成静态链接的二进制文件,不依赖运行时。这使得部署极其简单——只需复制一个文件即可。

② 内存占用低 Go 的内存管理比 Python/JavaScript 更高效。PicoClaw 的核心功能只需要 <10MB 内存,而等效的 Python 实现可能需要 100MB+。

③ 跨平台支持 Go 原生支持交叉编译到多种架构:

  • x86_64(Intel/AMD)
  • ARM64(树莓派、M1/M2 Mac)
  • ARMv7(旧版树莓派)
  • RISC-V(LicheeRV、HiFive 等)
  • MIPS(路由器、嵌入式设备)

④ 并发模型 Go 的 goroutine 是轻量级线程,可以在有限的内存下支持大量并发任务。这对于需要同时处理多个请求的 Agent 很重要。


3. 硬件选型:ARM 为什么赢了?

3.1 架构战争:x86 vs ARM vs RISC-V

在嵌入式领域,有三种主要的处理器架构:

x86(Intel/AMD)

  • ✅ 性能强、生态成熟
  • ❌ 功耗高、价格贵、发热大
  • 适合:桌面电脑、服务器

ARM

  • ✅ 功耗低、价格便宜、选择多
  • ✅ 生态成熟(树莓派、手机、IoT)
  • 适合:嵌入式、移动设备、IoT

RISC-V

  • ✅ 开源、免授权费、可定制
  • ⚠️ 生态较新,软件支持相对较少
  • 适合:教育、研究、特定用途芯片

3.2 为什么是 ARM?

PicoClaw 支持所有三种架构,但 ARM 是最实用的选择。原因如下:

① 生态成熟 树莓派已经卖了 5000 多万台,围绕 ARM Linux 的软件生态非常丰富。你能想到的功能,基本上都有现成的方案。

② 性价比 $10-50 就能买到性能不错的 ARM 开发板(树莓派 Zero 2W、LicheeRV-Nano 等)。

③ 功耗控制 ARM 处理器的功耗可以做到 <1W,适合电池供电。x86 即使在低负载下也很难低于 5W。

④ 社区支持 遇到问题很容易找到解决方案——因为太多人用 ARM 了。

3.3 PicoClaw 支持的硬件

PicoClaw 官方推荐的硬件:

入门级($9.9)

  • LicheeRV-Nano:RISC-V 架构,带网口或 WiFi,极简家庭助手

进阶级($39-70)

  • NanoKVM 系列($39-55,RISC-V):带 KVM 功能,可远程控制服务器
  • NanoKVM Pro($60-70,ARM):增强版 KVM,支持更多功能

高级($55-90)

  • MaixCAM/MaixCAM-Pro($55-90):带摄像头,可做智能监控

手机级($0,废物利用)

  • 旧 Android 手机:通过 Termux 运行 PicoClaw
    • 10 年前的旧手机也能跑
    • 自带屏幕、电池、网络
    • 真正的「随身携带」

4. 功耗优化:让 Agent 跑在电池上

4.1 为什么功耗很重要?

想象一下这些场景:

🏕️ 露营助手 你想在野外露营时有一个 AI 助手,但这里没有电源插座。

🏠 智能家居 你想让 Agent 控制家里的设备,但不想每个房间都拉电源线。

🤖 移动机器人 你想做一个会走路的机器人,但电池容量有限。

在这些场景下,每毫瓦都很重要

4.2 PicoClaw 的功耗优势

数字对比

设备功耗10000mAh 充电宝供电时间
Mac Mini10-30W1-3 小时
树莓派 45-8W4-6 小时
树莓派 Zero 2W1-2W15-20 小时
LicheeRV-Nano + PicoClaw~3.5W~14 小时

~3.5W 是如何做到的?

  1. Go 语言高效:没有虚拟机开销,垃圾回收开销较小
  2. 精简功能:只保留核心功能,去掉不必要的依赖
  3. 事件驱动:没有任务时进入休眠,有事件时快速唤醒
  4. 轻量级模型:支持本地小模型(如 TinyLlama),减少网络请求

4.3 实战:延长电池续航的技巧

如果你要让 PicoClaw 跑在电池上,可以考虑这些优化:

① 间歇运行 不需要 24/7 一直运行。可以设置定时唤醒(比如每 15 分钟检查一次),其他时间休眠。

② 降低 CPU 频率 大多数开发板允许你降低 CPU 频率。如果任务不复杂,0.6GHz 就够了。

③ 关闭不必要的外设

  • 不用 HDMI?关闭显卡输出
  • 不用 USB?关闭 USB 控制器
  • 不用 WiFi?用有线网络或间歇连接

④ 使用低功耗模式 Linux 有多种省电模式:

  • powersave:始终最低频率
  • ondemand:需要时提升频率
  • conservative:缓慢提升频率

对于 Agent 场景,conservative 通常是最佳选择。


5. 离线能力:没有网络的 Agent

5.1 为什么要离线?

你可能会问:现在的设备不都有网络吗?为什么要离线?

场景一:隐私保护 你不想把个人数据发送到云端。本地运行意味着你的对话、文件、习惯都留在设备上。

场景二:网络不稳定 你在偏远地区、地下室、或者网络信号差的地方。

场景三:成本考虑 每次调用 API 都要花钱。如果能在本地处理简单任务,可以大幅降低成本。

场景四:响应速度 本地模型响应更快——不需要网络往返。

5.2 本地模型选项

PicoClaw 支持多种本地模型部署方案:

① Ollama

bash
# 在 PicoClaw 所在的设备上安装 Ollama
ollama run tinyllama

# 然后在 PicoClaw 配置中指向本地 Ollama

② llama.cpp 针对嵌入式设备优化的推理引擎,支持量化模型(4-bit、5-bit)。7B 量化模型约需 4GB 内存,1B 以下的小模型(如 TinyLlama)可在 1-2GB 内存的设备上运行(2-bit 量化可在 512MB 设备运行,但性能受限)。

③ vLLM 如果你有足够的内存(2GB+),vLLM 提供更快的推理速度。

5.3 离线 Agent 的能力边界

本地模型很强,但也有局限:

✅ 本地模型擅长的:

  • 文本生成、摘要
  • 简单问答
  • 代码补全
  • 格式转换

❌ 本地模型不擅长的:

  • 需要最新知识的任务(如「今天的新闻」)
  • 复杂推理
  • 多语言翻译(小模型质量较差)

混合方案: PicoClaw 支持「本地优先」策略:

  • 简单任务 → 本地模型处理
  • 复杂任务 → 调用云端 API
  • 无网络时 → 完全本地运行(功能降级)

6. 小结:Agent 的「平民化」

PicoClaw 代表了 Agent 技术的一个新方向:极致的轻量化和低成本

它证明了几件事:

  1. एजेंट को महंगे हार्डवेयर की आवश्यकता नहीं है - मुख्य कार्यक्षमता को चलाने के लिए $10 का उपकरण पर्याप्त है
  2. कम बिजली की खपत संभव है - <1W बिजली की खपत बैटरी की शक्ति को वास्तविकता बनाती है
  3. ऑफ़लाइन संचालन संभव है - स्थानीय मॉडल बुनियादी ज़रूरतों को पूरा कर सकता है

समग्र रूप से उद्योग के लिए इसका क्या अर्थ है?

डेवलपर्स के लिए: आप एजेंट को उन परिदृश्यों में एम्बेड कर सकते हैं जो पहले असंभव थे - स्मार्ट होम, पहनने योग्य डिवाइस, रोबोट...

उपयोगकर्ताओं के लिए: एआई असिस्टेंट अब एक "क्लाउड सेवा" नहीं है, बल्कि एक सॉफ्टवेयर है जिसका वास्तव में "स्वामित्व" किया जा सकता है। यह आपके डिवाइस पर चलता है, इसके लिए किसी सदस्यता शुल्क, किसी नेटवर्क कनेक्शन की आवश्यकता नहीं है और आपका डेटा पूरी तरह से निजी है।

समाज के लिए: एआई प्रौद्योगिकी का लोकतंत्रीकरण। यह सिर्फ बड़ी कंपनियां ही नहीं हैं जो एआई चला सकती हैं, आम लोग भी 10 डॉलर के उपकरणों के साथ इस तकनीक का अनुभव कर सकते हैं।