📰 龙虾新闻

OpenClaw新版本发布:本地运行AI助手,支持Claude/GPT/本地LLM及Slack/Teams等30+平台

发布时间:2026-04-18 分类: 龙虾新闻
摘要:OpenClaw 新版本发布:本地运行、多平台接入、生态扩展OpenClaw 最新版本已上线。它是一个开源 AI 助手,完全在用户设备本地运行,支持接入 Claude、GPT 等远程模型,也支持本地部署的 LLM(如 Llama 3、Qwen2、Phi-3)。目前可直接对接 WhatsApp、Telegram、Discord、Slack、Microsoft Teams 等 30+ 平台,无需...

封面

OpenClaw 新版本发布:本地运行、多平台接入、生态扩展

OpenClaw 最新版本已上线。它是一个开源 AI 助手,完全在用户设备本地运行,支持接入 Claude、GPT 等远程模型,也支持本地部署的 LLM(如 Llama 3、Qwen2、Phi-3)。目前可直接对接 WhatsApp、Telegram、Discord、Slack、Microsoft Teams 等 30+ 平台,无需云中转。

多平台支持升级:从社交到企业协作

这次更新重点补全了企业级通讯工具链。Slack 和 Microsoft Teams 的集成不再是基础消息收发,而是支持:

  • 实时监听指定频道/线程,触发预设工作流(例如:检测到 @openclaw summary 自动提取会议要点)
  • 原生支持 Teams 的应用权限模型,可读写聊天记录、会议笔记、待办列表
  • Slack App Directory 已上架官方认证应用,一键安装即用

其他平台也有实质性改进:WhatsApp 支持端到端加密会话中的结构化指令解析;Telegram Bot API 升级至 v6.9,兼容 inline keyboard 回调与多步表单。

技术细节:

  • 新增 Slack、Teams、Notion、Linear、Jira 的官方 API 支持(共 5 个)
  • 任务调度器改用基于 actor 模型的轻量运行时,跨平台任务平均延迟下降 42%
  • 所有平台间数据流转默认启用双密钥端到端加密(用户主密钥 + 会话临时密钥)

本地模型集成:真离线、低延迟、可审计

新版本彻底重构了模型适配层。不再依赖“伪本地”——即把请求转发到本地 API server 的方式。而是直接在进程内加载 GGUF 格式模型,通过 llama.cpp 或 llama-cpp-python 运行,全程无网络调用。

你可以在 M2 MacBook Air 上跑 4B 量化模型(Q4_K_M),响应延迟稳定在 800ms 内;在 RTX 4090 台式机上加载 14B Q5_K_S,吞吐达 120 tokens/s。

实际影响:

  • 本地推理延迟比上一版降低 30%(实测 7B 模型,A100 + CUDA Graph)
  • 所有输入/输出文本、上下文缓存、prompt 模板均不离开设备内存
  • 支持自定义 LoRA 加载路径和 runtime 参数覆盖(如 --temperature 0.3 --top_p 0.9

OpenClaw 生态发展:API、插件、社区驱动

核心变化是开放了稳定的 Runtime API 和插件协议:

  • openclaw serve --api 启动 HTTP 服务,提供 /v1/chat/completions 兼容接口(含 streaming)
  • 插件目录 ~/.openclaw/plugins/ 支持 Python 模块热加载,可注册自定义 platform handler、filter、tool call resolver
  • 社区已提交 87 个插件:从 GitHub PR 自动评论、RSS 聚合摘要,到 Home Assistant 设备控制

关键进展:

  • GitHub Star 数突破 31k(非“310k+”,原文数据有误)
  • 主仓库 issue 关闭率 82%,PR 平均合并周期 3.2 天
  • 官方文档全部移至 docs.openclaw.dev,含 12 个可交互教程(基于 mdbook + wasm-python)

国产 Claw 进展:微信、钉钉深度适配

AutoClaw、NanoClaw 等项目基于 OpenClaw v0.8 分支构建,但做了关键本土化改造:

  • 微信支持基于 WeChatPYAPI(逆向分析 PC 微信协议),绕过官方未开放的机器人接口,实现群消息监听、关键词自动回复、文件 OCR 提取
  • 钉钉适配新版开放平台 SDK,支持审批流节点自动填充、日志摘要生成、会议纪要同步至语雀
  • 中文 NLP 优化:内置 bge-reranker-v2-m3 重排序器 + jina-embeddings-v2-base-zh,中文长文本检索准确率提升 27%

技术亮点:

  • AutoClaw 默认启用 Ziya-13B-Chat 作为本地基座模型(经 Alibaba 开源授权)
  • NanoClaw 编译为单文件二进制(<12MB),可在树莓派 5 上运行 1.5B 量化模型
  • 所有国产平台插件代码开源,无闭源中间件

大厂动态:不是对抗,是接口收敛

微软近期将 Cortana 的 task automation 模块迁移到 OpenClaw 插件架构,复用其 platform adapter 和 tool calling runtime;谷歌在内部测试用 OpenClaw 的 Telegram connector 替换 Dialogflow 的 bot 接入层。

这不是“整合”,而是大厂开始承认:统一的、可插拔的 AI agent runtime 比各自造轮子更高效。

观察到的趋势:

  • Google、Microsoft、Apple 的内部 AI 工具链正逐步采用 OpenClaw 的 platform → adapter → model → tool 四层抽象
  • HuggingFace 新增 openclaw-plugin 标签,收录 43 个第三方插件
  • AWS Lambda 提供 openclaw-runtime 预置镜像,支持无服务器部署

下一步:聚焦真实场景,拒绝功能堆砌

OpenClaw 团队明确下一阶段目标:砍掉 30% 的边缘功能,把资源集中在三件事上:

  • 跨设备状态同步:手机端触发的任务,可在桌面端继续执行(基于 CRDT 实现本地优先同步)
  • 可信工具调用:所有外部 API 调用需经 tool-spec.yaml 声明 + 用户显式授权,拒绝静默调用
  • 可验证 prompt 工程:每个 workflow 支持导出 .prompt 文件,含变量绑定、示例输入/输出、校验断言

如果你正在用 AI 处理重复性沟通任务,现在就是试用的好时机。
代码、文档、发行版下载:https://github.com/openclaw/openclaw
插件市场:https://plugins.openclaw.dev

返回首页