OpenClaw安装教程:Ubuntu一键编译部署龙虾机器人开发环境
龙虾新手指南:从跑通到懂决策
安装 OpenClaw
终端里敲几行命令就行,不用改源、不用配环境变量。
sudo apt-get update
sudo apt-get install -y git cmake build-essential
git clone https://github.com/openclaw/OpenClaw.git
cd OpenClaw
mkdir build && cd build
cmake ..
make -j$(nproc)
sudo make install编译完,OpenClaw --version 能打出版本号就说明装好了。如果卡在 cmake ..,大概率是缺 libeigen3-dev 或 libyaml-cpp-dev,补上再试。
配置 OpenClaw
配置文件默认放在 /usr/local/etc/OpenClaw/config。第一次用,先复制示例:
sudo mkdir -p /usr/local/etc/OpenClaw
sudo cp /usr/local/share/OpenClaw/config.example /usr/local/etc/OpenClaw/config然后编辑它:
sudo nano /usr/local/etc/OpenClaw/config重点看这几项:
model_path: 指向你训练好的或下载的物理推理模型(比如models/claw-v2.1.onnx)device: 设成cuda或cpu,NVIDIA 显卡就别硬切 CPUlog_level: 先设成info,出问题时再调成debug
改完保存,重启服务(如果有)或直接进下一步。
安装 Skills
Skills 不是插件,是独立可执行模块,按需装。先装管理器:
curl -fsSL https://get.skill.dev | sudo bash然后装两个最常用的:
skill install vision
skill install language装完会自动注册到系统 PATH。试一下:
skill vision --help
skill language --list-modelsvision 默认用 YOLOv8s + SAM2,language 默认加载 Qwen2-0.5B-Chat(量化版),都带中文 tokenization。
用 AutoClaw(国产版)
AutoClaw 是 OpenClaw 的国内定制分支,预编译、带中文 UI、适配国产显卡驱动。
下载安装包(以 Ubuntu 22.04/24.04 为例):
wget https://mirror.autoclaw.cn/releases/autoclaw_2.3.1_amd64.deb
sudo dpkg -i autoclaw_2.3.1_amd64.deb
sudo apt-get install -f # 修复可能的依赖启动:
autoclaw gui # 图形界面(需要 X11 或 Wayland)
# 或
autoclaw cli # 命令行交互模式首次运行会引导你选设备类型(机械臂 / 移动底盘 / 无人机)、加载默认技能集,并生成 ~/.autoclaw/config.yaml。这个文件比 OpenClaw 的 config 更直白,字段名全是中文拼音缩写,比如 shijue_moshi(视觉模式)、juece_sudu(决策速度)。
理解几个关键概念
别被术语绕晕。这几个词够你动手了:
- 具身智能(Embodied AI):AI 不光能“想”,还要能“动”——接收传感器数据(摄像头、IMU、力觉),输出动作指令(关节扭矩、轮速、抓取力),闭环跑起来才算。
- 物理世界理解:不是识别“这是杯子”,而是知道“杯子装水后重心升高,倾斜 15° 可能倾倒”,靠的是内置的刚体动力学模型 + 实时碰撞检测,不是纯神经网络拟合。
- 长程推理:规划“倒水”动作,要拆解成:移动到水壶旁 → 识别壶柄 → 计算握姿 → 抬起壶 → 对准杯口 → 控制倾角 → 判断水量 → 放回。每步都依赖前一步状态,不能断。
- 实时权衡:机械臂快一点能省时间,但震动大会打翻东西;视觉帧率高利于跟踪,但占 GPU 显存会影响控制频率。Claw 里用优先级调度器动态分配资源,不是固定参数。
这些不是玄学,代码里都能看到对应模块:physics/ 目录下是 Bullet 封装,planner/ 里是基于 A* 的行为树编译器,scheduler/ 是抢占式实时线程池。
验证是否跑通
三件事,五分钟内搞定:
启动基础推理服务:
OpenClaw --config /usr/local/etc/OpenClaw/config --no-gui看终端有没有
INFO: Loaded model xxx, ready.用 vision 技能处理一张图:
skill vision --image test.jpg --output result.jsonresult.json里应该有"objects": [{"label": "cup", "bbox": [120, 85, 210, 175], "stability_score": 0.92}]启动 AutoClaw CLI,连上本地服务:
autoclaw cli > connect localhost:8080 > status输出里要有
vision: OK,physics: OK,control_loop: 100Hz。
全绿,说明链路通了。
常见问题
make报错undefined reference to 'pthread_create'
在CMakeLists.txt里加一行:target_link_libraries(OpenClaw PRIVATE pthread),或者临时改命令:make LINK_FLAGS="-lpthread"skill install vision卡住不动
默认走国内镜像,如果公司防火墙拦了mirrors.autoclaw.cn,手动切源:echo "https://pypi.tuna.tsinghua.edu.cn/simple" | sudo tee /etc/skill/sources.list- AutoClaw 启动黑屏或报
Failed to initialize EGL
国产显卡驱动没装全。飞腾+景嘉微平台装jm_drv_kmd,海光+天阔平台装hygon-gpu-driver,别用通用 mesa。 - 模型加载慢,GPU 显存没占满
默认开 FP16 推理,但某些国产卡只支持 INT8。编辑 config,把precision: fp16改成int8,再重跑OpenClaw --rebuild-cache。
下一步
- 把
test.jpg换成你手机拍的厨房照片,看 vision 能否标出锅、铲、灶台边缘 - 用
skill language问一句:“把左边的红杯子移到右边盘子上”,观察它生成的动作序列 JSON - 打开
examples/real_arm_demo.py,接一台 UR5e 或者越疆 D6,把上面两步串起来跑通闭环
Claw 生态没打算让你从零造轮子。它把物理仿真、运动规划、多模态对齐这些脏活封好接口,你只管喂数据、调策略、看效果。跑通第一个闭环,你就已经站在“懂决策”的起点上了。