🚀 龙虾新手指南

OpenClaw与Claw系列AI工具链入门指南:中文本地部署大模型实战

发布时间:2026-04-13 分类: 龙虾新手指南
摘要:龙虾新手指南:OpenClaw与国产Claw系列AI工具链入门什么是“龙虾AI”?“龙虾AI”不是生物分类,也不是餐饮术语——它指代以 OpenClaw 和国产 Claw 系列为代表的开源大模型工具链。这些项目专注中文场景,提供本地部署、轻量推理、中文指令微调等能力。它们不追求通用性,而是把中文理解、低资源适配和数据可控性放在第一位。为什么用龙虾AI?本地化部署很多中文业务场景不能上传数据。...

龙虾新手指南:OpenClaw与国产Claw系列AI工具链入门

什么是“龙虾AI”?

“龙虾AI”不是生物分类,也不是餐饮术语——它指代以 OpenClaw 和国产 Claw 系列为代表的开源大模型工具链。这些项目专注中文场景,提供本地部署、轻量推理、中文指令微调等能力。它们不追求通用性,而是把中文理解、低资源适配和数据可控性放在第一位。

为什么用龙虾AI?

本地化部署

很多中文业务场景不能上传数据。OpenClaw 和 Claw 系列默认走本地路径:模型加载、推理、微调全在你自己的机器上完成。没有 API 密钥,没有网络请求,也没有隐式的数据回传。

轻量化推理

它们不是靠堆显存跑起来的。OpenClaw 默认支持 GGUF 格式量化模型,4GB 显存的笔记本能跑 7B 模型;AutoClaw 还内置了 ONNX Runtime 后端,连 NVIDIA GPU 都不是必须的——Intel 核显或 macOS Metal 也能跑通。

中文指令微调

预训练模型用的是中文语料,但真正好用的是指令微调层。OpenClaw 自带 claw-tune 工具,支持 LoRA + QLoRA 微调;Claw 系列则直接集成中文对话模板(如 zh-alpacafirefly 格式),微调时不用改一行 prompt 模板。

安装与配置 OpenClaw

前提条件

确保系统已安装:

  • Python 3.8–3.11(推荐 3.10)
  • Git
  • pip(≥22.0)

检查命令:

python3 --version
git --version
pip --version

克隆与安装

git clone https://github.com/OpenClaw/OpenClaw.git
cd OpenClaw
pip install -r requirements.txt
注意:requirements.txt 中已锁定 torch 与 transformers 版本,避免 CUDA 兼容问题。若用 Apple Silicon,会自动启用 MPS 后端。

环境变量(可选但推荐)

编辑 ~/.zshrc~/.bashrc

export OPENCLAW_HOME=$(pwd)
export PATH=$OPENCLAW_HOME/bin:$PATH

生效:

source ~/.zshrc

验证安装

openclaw --version

输出类似 openclaw 0.4.2 即成功。

用 OpenClaw 做一次对话

下载模型

OpenClaw 自带模型仓库,国内节点已镜像。运行:

openclaw download model qwen2-0.5b-chat-gguf

该模型约 480MB,纯 CPU 推理延迟 < 800ms(M2 MacBook Air)。

加载并生成

openclaw load model qwen2-0.5b-chat-gguf
openclaw generate "你好,今天想学点什么?"

你会看到类似输出:

你好!今天我们来聊聊大模型的量化原理吧——比如 GGUF 是如何把浮点权重压缩成 4-bit 整数的。
提示:generate 命令默认启用 chat template,自动拼接 system/user/assistant 角色标记。

国产 Claw 系列:从 AutoClaw 开始

Claw 系列不是 OpenClaw 的分支,而是另一条技术路线:更激进的中文优化、更少的抽象层、更强的 CLI 可组合性。

安装 AutoClaw

git clone https://github.com/ClawSeries/AutoClaw.git
cd AutoClaw
pip install -r requirements.txt

下载并运行中文模型

autoclaw download model phi-3-mini-chinese-q4_k_m
autoclaw load model phi-3-mini-chinese-q4_k_m
autoclaw generate "请用三句话解释 RAG。"

输出示例:

RAG(检索增强生成)是一种将外部知识库接入大模型的方法。  
它先用查询向量从向量数据库中检索相关文档片段,再把检索结果拼接到 prompt 中交给 LLM 生成回答。  
相比微调,RAG 更灵活、更新成本更低,适合知识高频变动的场景。

下一步怎么走?

  • 试试 openclaw tune:用自己收集的客服对话微调一个 1.5B 模型,1 小时内完成
  • 查看 autoclaw serve:一键启动 Web UI(基于 Ollama 兼容协议),直接对接 LangChain
  • 翻翻 examples/ 目录:有 PDF 解析 pipeline、微信聊天摘要脚本、本地知识库问答 demo
  • 加入 Discord #claw-cn 频道:大部分 PR 都来自国内开发者,issue 响应平均 3 小时内

快速参考

返回首页