龙虾AI生态入门指南:OpenClaw开源框架+YOYO Claw工具链本地部署实战

龙虾AI生态入门指南:从OpenClaw到YOYO Claw
1. 什么是“龙虾AI生态”?
“龙虾AI生态”是荣耀推出的轻量化智能体技术体系,聚焦终端侧AI落地。它以开源框架 OpenClaw 为底座,配合国产 Claw 工具链(如 AutoClaw),支持本地模型部署、多端协同推理、模块化智能体编排。整个生态面向实际开发场景,路径清晰:装好就能跑,改几行就能扩。
2. 为什么用它?
2.1 数据不出设备
所有推理在本地完成。医疗记录、银行流水、会议录音——这些敏感数据根本不会上传。你控制模型,也控制数据。
2.2 多端共享能力
PC 上训好的意图识别模型,手机和平板能直接调用;平板上划出的草图,PC 端可实时生成描述。设备之间不传原始数据,只传轻量指令和结构化结果。
2.3 智能体即插即用
不用重写调度逻辑,也不用碰 CUDA 或 ONNX Runtime 底层。定义输入输出、写清业务逻辑,openclaw build && deploy 两步就变成可运行的模块。
3. 环境搭建
3.1 安装OpenClaw
sudo apt-get update
sudo apt-get install -y git cmake build-essential
git clone https://github.com/gloryai/OpenClaw.git
cd OpenClaw
mkdir build && cd build
cmake ..
make -j$(nproc)
sudo make install编译产物默认安装到/usr/local/OpenClaw。确保cmake版本 ≥ 3.16,GCC ≥ 11。
3.2 配置环境变量
echo 'export OPENCLAW_HOME=/usr/local/OpenClaw' >> ~/.bashrc
echo 'export PATH=$OPENCLAW_HOME/bin:$PATH' >> ~/.bashrc
source ~/.bashrc验证是否生效:
openclaw --version应输出类似 openclaw v0.4.2。
4. 预置功能模块(主虾)
荣耀预置了开箱即用的“主虾”,每个都是独立进程+标准 API 接口,按需启停。
4.1 办公虾
处理文档摘要、会议语音转写、邮件优先级排序:
openclaw start office_shrimp启动后监听 http://localhost:8081,支持 POST /summarize 和 /transcribe。
4.2 教育虾
提供习题解析、知识点关联、错题归因:
openclaw start education_shrimp接口地址 http://localhost:8082,输入 JSON 包含题目文本和学科标签,返回带步骤的解法。
4.3 学习虾
构建个人知识图谱,推荐学习路径:
openclaw start learning_shrimp调用 GET /path?topic=linux&level=intermediate 获取定制化学习序列。
5. 自定义Claw扩展
5.1 初始化项目
openclaw create my_custom_shrimp
cd my_custom_shrimp目录结构自动生成:
my_custom_shrimp/
├── claw.yaml # 元信息:名称、版本、依赖、端口
├── main.py # 主逻辑入口
├── requirements.txt
└── assets/ # 模型文件或词典5.2 编写逻辑
编辑 main.py,实现一个接收姓名、返回问候的简单服务:
from openclaw import register_endpoint
@register_endpoint("/greet", method="POST")
def greet(request):
name = request.get("name", "World")
return {"message": f"Hello, {name}!"}@register_endpoint 是 OpenClaw 提供的装饰器,自动注册 HTTP 路由并解析 JSON body。5.3 构建与部署
openclaw build
openclaw deploybuild 打包代码和依赖为 .claw 归档;deploy 将其注册进系统服务管理器,并分配端口(默认 8083)。
6. 运行你的Claw
openclaw run my_custom_shrimp发送请求测试:
curl -X POST http://localhost:8083/greet \
-H "Content-Type: application/json" \
-d '{"name": "Alice"}'响应:
{"message": "Hello, Alice!"}7. 常见问题
7.1 编译失败
- 报
CMake Error: Could not find a package configuration file:确认cmake已安装且在$PATH。 - 报
fatal error: openclaw/core.h: No such file:检查OPENCLAW_HOME是否指向正确路径,头文件应在$OPENCLAW_HOME/include。
7.2 Claw 启动后无响应
- 先查日志:
journalctl -u openclaw-my_custom_shrimp -n 50 - 端口冲突?
claw.yaml中修改port字段,再openclaw deploy重装。
7.3 Python 依赖报错
requirements.txt中声明的包必须兼容manylinux2014_x86_64(Claw 运行时环境)。- 推荐用
pip install --platform manylinux2014_x86_64 --target ./deps --no-deps -r requirements.txt预检。
8. 下一步
- ONNX Runtime 集成:在
main.py中用onnxruntime.InferenceSession加载.onnx模型,OpenClaw 自动管理 session 生命周期。 - 意图识别轻量化:用
AutoClaw工具链对 BERT 类模型做量化剪枝,生成 sub-5MB 的.clawmodel文件。 - 多端协同:通过
openclaw link --to phone-uuid建立设备信任链,调用远程 Claw 时自动路由、降级、缓存。
文档与社区: