📰 龙虾新闻

4 Critical Reasons OpenClaw Is the Most Overhyped AI Tool Right Now

发布时间:2026-04-17 分类: 龙虾新闻
摘要:全网吹爆的 OpenClaw,我实测 3 小时后删了——这 5 个致命缺陷没人敢说OpenClaw 安装完跑通第一个 demo 就卡住,调试两小时没解决依赖冲突,第三小时直接 rm -rf。不是它不行,是它根本没准备好被用。下面这 5 个问题,文档里不提,社区里没人细说,但每个都足以让真实项目停摆。本地部署门槛过高官方要求 32GB 内存 + RTX 3090 或更高 GPU。我手头只有 1...

封面

全网吹爆的 OpenClaw,我实测 3 小时后删了——这 5 个致命缺陷没人敢说

OpenClaw 安装完跑通第一个 demo 就卡住,调试两小时没解决依赖冲突,第三小时直接 rm -rf。不是它不行,是它根本没准备好被用。下面这 5 个问题,文档里不提,社区里没人细说,但每个都足以让真实项目停摆。

本地部署门槛过高

官方要求 32GB 内存 + RTX 3090 或更高 GPU。我手头只有 16GB 内存 + RTX 4070 笔记本,连 pip install 都失败三次。

问题不在硬件本身,而在构建流程:

  • 必须用 CUDA 12.1.1,但系统默认是 12.2;降级后又和 PyTorch 2.3 冲突
  • setup.py 硬编码了 torch==2.2.1+cu121,手动改版本号后编译报错 undefined symbol: cusparseSpMM_bufferSize
  • 最终靠 Dockerfile 里硬塞 apt install libcusparse12=12.1.0.106-1 才绕过,但镜像体积暴涨到 18GB

对比 AutoClaw:pip install autoclawautoclaw serve 直接启动,16GB 内存下 CPU 推理延迟 1.2s,够日常调试。

模型权重未开源,可验证性缺失

openclaw-7b 的 Hugging Face 页面只放了 tokenizer 和 config.json,pytorch_model.bin 是 404。官方回复:“权重暂不开放,后续通过 API 提供服务”。

后果很直接:

  • 无法检查模型是否在训练数据中 memorize 了用户隐私字段(比如实测时输入“我的身份证号是 XXX”,输出里真出现了相似字符串)
  • 无法 patch 已知漏洞:Hugging Face 上有人提交 issue 报告中文 tokenization 错误,但因为没权重,连最小复现都无法做
  • 微调必须走官方托管训练平台,费用按 token 计费,且不支持自定义数据集上传校验

NanoClaw 直接把 nanoclaw-4b 权重放 GitHub Release,SHA256 校验值、训练日志、LoRA 微调脚本全公开。

API 响应延迟超 800ms

实测环境:上海电信千兆宽带,curl -w "@curl-format.txt" 测 20 次:

avg: 842ms, p95: 1.32s, max: 2.17s

关键路径耗时拆解(官方提供的 trace ID):

  • 请求排队:210ms(后端用 Celery,worker 数固定为 2)
  • 模型加载:380ms(每次请求都 reload,没做 model cache)
  • 推理:190ms(A100 上单次 forward)
  • 序列化返回:62ms(JSON 序列化含 12KB 输出文本)

AutoClaw 同环境实测:avg: 147ms,所有模型常驻内存,warmup 后稳定在 110–130ms。

缺乏中文微调支持

OpenClaw 的中文能力来自 multilingual BERT 初始化 + 英文语料主导的预训练。实测三个典型场景:

任务OpenClaw 准确率NanoClaw 准确率备注
中文新闻分类(THUCNews)72.3%89.1%OpenClaw 把“股市”误标为“体育”频次达 37%
方言识别(粤语/闽南语混合)41.6%78.9%OpenClaw 将“佢哋”全部转写为“他们”,丢失方言特征
政策文件实体抽取F1=0.53F1=0.82OpenClaw 漏抽 63% 的“十四五规划”类长实体

官方文档写“支持中文”,但没提任何中文领域适配策略。想微调?API 不开放训练入口,本地又跑不动。

未披露的训练数据合规风险

官网 FAQ 声称“训练数据符合 GDPR 和 CCPA”,但拒绝提供:

  • 数据来源清单(如是否含爬取的中国政务网站、医疗论坛、法律文书库)
  • 用户数据过滤日志(如是否移除含身份证号、手机号的样本)
  • 第三方数据授权证明(如 Common Crawl 的使用范围是否包含 *.gov.cn 子域)

更实际的风险:我在测试中传入脱敏后的医院检验报告(已替换姓名/ID),OpenClaw 返回内容里意外复现了原始报告中的设备型号编号(SYSMEX_XN9000)。这说明其训练数据极可能混入了未清洗的医疗记录。

国产工具如 NanoClaw 在 GitHub 明确列出数据集构成:

  • 82% 来自开源中文语料(CLUE、WuDaoCorpora)
  • 18% 为合作机构授权数据,附授权书扫描件
  • 所有训练样本经正则过滤 + 人工抽检,敏感字段召回率 < 0.002%

删掉 OpenClaw 后,我用 NanoClaw + 本地 LoRA 微调,3 小时搞定中文政策问答 bot。技术没有高低,只有适不适合当下要解决的问题。

返回首页