🚀 龙虾新手指南

OpenClaw安装教程:Ubuntu一键编译部署龙虾机器人开发环境

发布时间:2026-04-13 分类: 龙虾新手指南
摘要:龙虾新手指南:从跑通到懂决策安装 OpenClaw终端里敲几行命令就行,不用改源、不用配环境变量。sudo apt-get update sudo apt-get install -y git cmake build-essential git clone https://github.com/openclaw/OpenClaw.git cd OpenClaw mkdir build &am...

龙虾新手指南:从跑通到懂决策

安装 OpenClaw

终端里敲几行命令就行,不用改源、不用配环境变量。

sudo apt-get update
sudo apt-get install -y git cmake build-essential
git clone https://github.com/openclaw/OpenClaw.git
cd OpenClaw
mkdir build && cd build
cmake ..
make -j$(nproc)
sudo make install

编译完,OpenClaw --version 能打出版本号就说明装好了。如果卡在 cmake ..,大概率是缺 libeigen3-devlibyaml-cpp-dev,补上再试。

配置 OpenClaw

配置文件默认放在 /usr/local/etc/OpenClaw/config。第一次用,先复制示例:

sudo mkdir -p /usr/local/etc/OpenClaw
sudo cp /usr/local/share/OpenClaw/config.example /usr/local/etc/OpenClaw/config

然后编辑它:

sudo nano /usr/local/etc/OpenClaw/config

重点看这几项:

  • model_path: 指向你训练好的或下载的物理推理模型(比如 models/claw-v2.1.onnx
  • device: 设成 cudacpu,NVIDIA 显卡就别硬切 CPU
  • log_level: 先设成 info,出问题时再调成 debug

改完保存,重启服务(如果有)或直接进下一步。

安装 Skills

Skills 不是插件,是独立可执行模块,按需装。先装管理器:

curl -fsSL https://get.skill.dev | sudo bash

然后装两个最常用的:

skill install vision
skill install language

装完会自动注册到系统 PATH。试一下:

skill vision --help
skill language --list-models

vision 默认用 YOLOv8s + SAM2,language 默认加载 Qwen2-0.5B-Chat(量化版),都带中文 tokenization。

用 AutoClaw(国产版)

AutoClaw 是 OpenClaw 的国内定制分支,预编译、带中文 UI、适配国产显卡驱动。

下载安装包(以 Ubuntu 22.04/24.04 为例):

wget https://mirror.autoclaw.cn/releases/autoclaw_2.3.1_amd64.deb
sudo dpkg -i autoclaw_2.3.1_amd64.deb
sudo apt-get install -f  # 修复可能的依赖

启动:

autoclaw gui  # 图形界面(需要 X11 或 Wayland)
# 或
autoclaw cli  # 命令行交互模式

首次运行会引导你选设备类型(机械臂 / 移动底盘 / 无人机)、加载默认技能集,并生成 ~/.autoclaw/config.yaml。这个文件比 OpenClaw 的 config 更直白,字段名全是中文拼音缩写,比如 shijue_moshi(视觉模式)、juece_sudu(决策速度)。

理解几个关键概念

别被术语绕晕。这几个词够你动手了:

  • 具身智能(Embodied AI):AI 不光能“想”,还要能“动”——接收传感器数据(摄像头、IMU、力觉),输出动作指令(关节扭矩、轮速、抓取力),闭环跑起来才算。
  • 物理世界理解:不是识别“这是杯子”,而是知道“杯子装水后重心升高,倾斜 15° 可能倾倒”,靠的是内置的刚体动力学模型 + 实时碰撞检测,不是纯神经网络拟合。
  • 长程推理:规划“倒水”动作,要拆解成:移动到水壶旁 → 识别壶柄 → 计算握姿 → 抬起壶 → 对准杯口 → 控制倾角 → 判断水量 → 放回。每步都依赖前一步状态,不能断。
  • 实时权衡:机械臂快一点能省时间,但震动大会打翻东西;视觉帧率高利于跟踪,但占 GPU 显存会影响控制频率。Claw 里用优先级调度器动态分配资源,不是固定参数。

这些不是玄学,代码里都能看到对应模块:physics/ 目录下是 Bullet 封装,planner/ 里是基于 A* 的行为树编译器,scheduler/ 是抢占式实时线程池。

验证是否跑通

三件事,五分钟内搞定:

  1. 启动基础推理服务:

    OpenClaw --config /usr/local/etc/OpenClaw/config --no-gui

    看终端有没有 INFO: Loaded model xxx, ready.

  2. 用 vision 技能处理一张图:

    skill vision --image test.jpg --output result.json

    result.json 里应该有 "objects": [{"label": "cup", "bbox": [120, 85, 210, 175], "stability_score": 0.92}]

  3. 启动 AutoClaw CLI,连上本地服务:

    autoclaw cli
    > connect localhost:8080
    > status

    输出里要有 vision: OK, physics: OK, control_loop: 100Hz

全绿,说明链路通了。

常见问题

  • make 报错 undefined reference to 'pthread_create'
    CMakeLists.txt 里加一行:target_link_libraries(OpenClaw PRIVATE pthread),或者临时改命令:make LINK_FLAGS="-lpthread"
  • skill install vision 卡住不动
    默认走国内镜像,如果公司防火墙拦了 mirrors.autoclaw.cn,手动切源:
    echo "https://pypi.tuna.tsinghua.edu.cn/simple" | sudo tee /etc/skill/sources.list
  • AutoClaw 启动黑屏或报 Failed to initialize EGL
    国产显卡驱动没装全。飞腾+景嘉微平台装 jm_drv_kmd,海光+天阔平台装 hygon-gpu-driver,别用通用 mesa。
  • 模型加载慢,GPU 显存没占满
    默认开 FP16 推理,但某些国产卡只支持 INT8。编辑 config,把 precision: fp16 改成 int8,再重跑 OpenClaw --rebuild-cache

下一步

  • test.jpg 换成你手机拍的厨房照片,看 vision 能否标出锅、铲、灶台边缘
  • skill language 问一句:“把左边的红杯子移到右边盘子上”,观察它生成的动作序列 JSON
  • 打开 examples/real_arm_demo.py,接一台 UR5e 或者越疆 D6,把上面两步串起来跑通闭环

Claw 生态没打算让你从零造轮子。它把物理仿真、运动规划、多模态对齐这些脏活封好接口,你只管喂数据、调策略、看效果。跑通第一个闭环,你就已经站在“懂决策”的起点上了。

返回首页