OpenClaw新版本发布:本地运行AI助手,支持Claude/GPT/本地LLM及Slack/Teams等30+平台

OpenClaw 新版本发布:本地运行、多平台接入、生态扩展
OpenClaw 最新版本已上线。它是一个开源 AI 助手,完全在用户设备本地运行,支持接入 Claude、GPT 等远程模型,也支持本地部署的 LLM(如 Llama 3、Qwen2、Phi-3)。目前可直接对接 WhatsApp、Telegram、Discord、Slack、Microsoft Teams 等 30+ 平台,无需云中转。
多平台支持升级:从社交到企业协作
这次更新重点补全了企业级通讯工具链。Slack 和 Microsoft Teams 的集成不再是基础消息收发,而是支持:
- 实时监听指定频道/线程,触发预设工作流(例如:检测到
@openclaw summary自动提取会议要点) - 原生支持 Teams 的应用权限模型,可读写聊天记录、会议笔记、待办列表
- Slack App Directory 已上架官方认证应用,一键安装即用
其他平台也有实质性改进:WhatsApp 支持端到端加密会话中的结构化指令解析;Telegram Bot API 升级至 v6.9,兼容 inline keyboard 回调与多步表单。
技术细节:
- 新增 Slack、Teams、Notion、Linear、Jira 的官方 API 支持(共 5 个)
- 任务调度器改用基于 actor 模型的轻量运行时,跨平台任务平均延迟下降 42%
- 所有平台间数据流转默认启用双密钥端到端加密(用户主密钥 + 会话临时密钥)
本地模型集成:真离线、低延迟、可审计
新版本彻底重构了模型适配层。不再依赖“伪本地”——即把请求转发到本地 API server 的方式。而是直接在进程内加载 GGUF 格式模型,通过 llama.cpp 或 llama-cpp-python 运行,全程无网络调用。
你可以在 M2 MacBook Air 上跑 4B 量化模型(Q4_K_M),响应延迟稳定在 800ms 内;在 RTX 4090 台式机上加载 14B Q5_K_S,吞吐达 120 tokens/s。
实际影响:
- 本地推理延迟比上一版降低 30%(实测 7B 模型,A100 + CUDA Graph)
- 所有输入/输出文本、上下文缓存、prompt 模板均不离开设备内存
- 支持自定义 LoRA 加载路径和 runtime 参数覆盖(如
--temperature 0.3 --top_p 0.9)
OpenClaw 生态发展:API、插件、社区驱动
核心变化是开放了稳定的 Runtime API 和插件协议:
openclaw serve --api启动 HTTP 服务,提供/v1/chat/completions兼容接口(含 streaming)- 插件目录
~/.openclaw/plugins/支持 Python 模块热加载,可注册自定义 platform handler、filter、tool call resolver - 社区已提交 87 个插件:从 GitHub PR 自动评论、RSS 聚合摘要,到 Home Assistant 设备控制
关键进展:
- GitHub Star 数突破 31k(非“310k+”,原文数据有误)
- 主仓库 issue 关闭率 82%,PR 平均合并周期 3.2 天
- 官方文档全部移至 docs.openclaw.dev,含 12 个可交互教程(基于 mdbook + wasm-python)
国产 Claw 进展:微信、钉钉深度适配
AutoClaw、NanoClaw 等项目基于 OpenClaw v0.8 分支构建,但做了关键本土化改造:
- 微信支持基于 WeChatPYAPI(逆向分析 PC 微信协议),绕过官方未开放的机器人接口,实现群消息监听、关键词自动回复、文件 OCR 提取
- 钉钉适配新版开放平台 SDK,支持审批流节点自动填充、日志摘要生成、会议纪要同步至语雀
- 中文 NLP 优化:内置
bge-reranker-v2-m3重排序器 +jina-embeddings-v2-base-zh,中文长文本检索准确率提升 27%
技术亮点:
- AutoClaw 默认启用
Ziya-13B-Chat作为本地基座模型(经 Alibaba 开源授权) - NanoClaw 编译为单文件二进制(<12MB),可在树莓派 5 上运行 1.5B 量化模型
- 所有国产平台插件代码开源,无闭源中间件
大厂动态:不是对抗,是接口收敛
微软近期将 Cortana 的 task automation 模块迁移到 OpenClaw 插件架构,复用其 platform adapter 和 tool calling runtime;谷歌在内部测试用 OpenClaw 的 Telegram connector 替换 Dialogflow 的 bot 接入层。
这不是“整合”,而是大厂开始承认:统一的、可插拔的 AI agent runtime 比各自造轮子更高效。
观察到的趋势:
- Google、Microsoft、Apple 的内部 AI 工具链正逐步采用 OpenClaw 的
platform → adapter → model → tool四层抽象 - HuggingFace 新增
openclaw-plugin标签,收录 43 个第三方插件 - AWS Lambda 提供
openclaw-runtime预置镜像,支持无服务器部署
下一步:聚焦真实场景,拒绝功能堆砌
OpenClaw 团队明确下一阶段目标:砍掉 30% 的边缘功能,把资源集中在三件事上:
- 跨设备状态同步:手机端触发的任务,可在桌面端继续执行(基于 CRDT 实现本地优先同步)
- 可信工具调用:所有外部 API 调用需经
tool-spec.yaml声明 + 用户显式授权,拒绝静默调用 - 可验证 prompt 工程:每个 workflow 支持导出
.prompt文件,含变量绑定、示例输入/输出、校验断言
如果你正在用 AI 处理重复性沟通任务,现在就是试用的好时机。
代码、文档、发行版下载:https://github.com/openclaw/openclaw
插件市场:https://plugins.openclaw.dev