🚀 龙虾新手指南

龙虾AI生态入门指南:OpenClaw开源框架+YOYO Claw工具链本地部署实战

发布时间:2026-04-14 分类: 龙虾新手指南
摘要:龙虾AI生态入门指南:从OpenClaw到YOYO Claw1. 什么是“龙虾AI生态”?“龙虾AI生态”是荣耀推出的轻量化智能体技术体系,聚焦终端侧AI落地。它以开源框架 OpenClaw 为底座,配合国产 Claw 工具链(如 AutoClaw),支持本地模型部署、多端协同推理、模块化智能体编排。整个生态面向实际开发场景,路径清晰:装好就能跑,改几行就能扩。2. 为什么用它?2.1 数据...

封面

龙虾AI生态入门指南:从OpenClaw到YOYO Claw

1. 什么是“龙虾AI生态”?

“龙虾AI生态”是荣耀推出的轻量化智能体技术体系,聚焦终端侧AI落地。它以开源框架 OpenClaw 为底座,配合国产 Claw 工具链(如 AutoClaw),支持本地模型部署、多端协同推理、模块化智能体编排。整个生态面向实际开发场景,路径清晰:装好就能跑,改几行就能扩。

2. 为什么用它?

2.1 数据不出设备

所有推理在本地完成。医疗记录、银行流水、会议录音——这些敏感数据根本不会上传。你控制模型,也控制数据。

2.2 多端共享能力

PC 上训好的意图识别模型,手机和平板能直接调用;平板上划出的草图,PC 端可实时生成描述。设备之间不传原始数据,只传轻量指令和结构化结果。

2.3 智能体即插即用

不用重写调度逻辑,也不用碰 CUDA 或 ONNX Runtime 底层。定义输入输出、写清业务逻辑,openclaw build && deploy 两步就变成可运行的模块。

3. 环境搭建

3.1 安装OpenClaw

sudo apt-get update
sudo apt-get install -y git cmake build-essential

git clone https://github.com/gloryai/OpenClaw.git
cd OpenClaw
mkdir build && cd build
cmake ..
make -j$(nproc)
sudo make install
编译产物默认安装到 /usr/local/OpenClaw。确保 cmake 版本 ≥ 3.16,GCC ≥ 11。

3.2 配置环境变量

echo 'export OPENCLAW_HOME=/usr/local/OpenClaw' >> ~/.bashrc
echo 'export PATH=$OPENCLAW_HOME/bin:$PATH' >> ~/.bashrc
source ~/.bashrc

验证是否生效:

openclaw --version

应输出类似 openclaw v0.4.2

4. 预置功能模块(主虾)

荣耀预置了开箱即用的“主虾”,每个都是独立进程+标准 API 接口,按需启停。

4.1 办公虾

处理文档摘要、会议语音转写、邮件优先级排序:

openclaw start office_shrimp

启动后监听 http://localhost:8081,支持 POST /summarize/transcribe

4.2 教育虾

提供习题解析、知识点关联、错题归因:

openclaw start education_shrimp

接口地址 http://localhost:8082,输入 JSON 包含题目文本和学科标签,返回带步骤的解法。

4.3 学习虾

构建个人知识图谱,推荐学习路径:

openclaw start learning_shrimp

调用 GET /path?topic=linux&level=intermediate 获取定制化学习序列。

5. 自定义Claw扩展

5.1 初始化项目

openclaw create my_custom_shrimp
cd my_custom_shrimp

目录结构自动生成:

my_custom_shrimp/
├── claw.yaml      # 元信息:名称、版本、依赖、端口
├── main.py        # 主逻辑入口
├── requirements.txt
└── assets/        # 模型文件或词典

5.2 编写逻辑

编辑 main.py,实现一个接收姓名、返回问候的简单服务:

from openclaw import register_endpoint

@register_endpoint("/greet", method="POST")
def greet(request):
    name = request.get("name", "World")
    return {"message": f"Hello, {name}!"}
@register_endpoint 是 OpenClaw 提供的装饰器,自动注册 HTTP 路由并解析 JSON body。

5.3 构建与部署

openclaw build
openclaw deploy

build 打包代码和依赖为 .claw 归档;deploy 将其注册进系统服务管理器,并分配端口(默认 8083)。

6. 运行你的Claw

openclaw run my_custom_shrimp

发送请求测试:

curl -X POST http://localhost:8083/greet \
  -H "Content-Type: application/json" \
  -d '{"name": "Alice"}'

响应:

{"message": "Hello, Alice!"}

7. 常见问题

7.1 编译失败

  • CMake Error: Could not find a package configuration file:确认 cmake 已安装且在 $PATH
  • fatal error: openclaw/core.h: No such file:检查 OPENCLAW_HOME 是否指向正确路径,头文件应在 $OPENCLAW_HOME/include

7.2 Claw 启动后无响应

  • 先查日志:journalctl -u openclaw-my_custom_shrimp -n 50
  • 端口冲突?claw.yaml 中修改 port 字段,再 openclaw deploy 重装。

7.3 Python 依赖报错

  • requirements.txt 中声明的包必须兼容 manylinux2014_x86_64(Claw 运行时环境)。
  • 推荐用 pip install --platform manylinux2014_x86_64 --target ./deps --no-deps -r requirements.txt 预检。

8. 下一步

  • ONNX Runtime 集成:在 main.py 中用 onnxruntime.InferenceSession 加载 .onnx 模型,OpenClaw 自动管理 session 生命周期。
  • 意图识别轻量化:用 AutoClaw 工具链对 BERT 类模型做量化剪枝,生成 sub-5MB 的 .clawmodel 文件。
  • 多端协同:通过 openclaw link --to phone-uuid 建立设备信任链,调用远程 Claw 时自动路由、降级、缓存。

文档与社区:

返回首页