龙虾史上最大升级!但接了微信的千万别更
微信和WhatsApp双双断连
henry 发自 凹非寺
量子位 | 公众号 QbitAI
各位养虾户早上好,龙虾又又又更新了!
时隔九天,虾父Peter带来了全新版本2026.3.22-beta.1。

更新内容之丰富,堪称有史以来最大更新——
触控板和鼠标滚轮都得划半天才能看完。
先告诉你最关键的:龙虾能自己更新自己。

而说回更新,亮点概览如下:
- 插件升级:旧有的openclaw/extension-api已经被彻底移除,且不提供任何兼容垫片,统一走新版openclaw/plugin-sdk/*;安装插件优先ClawHub,找不到才去npm。
- 模型更新:上新MiniMax M2.7、GPT-5.4-mini/nano,并增加智能体“思考/推理/快速”默认模式。
- 交互优化:新增/btw快速问答,支持即时提问,无需工具调用,不影响未来会话;终端用户界面可关闭,外部渠道可显示BTW回复。
- 安全方面:核心SSH沙盒上线,支持密钥/证书/known_hosts验证,OpenShell专注沙盒生命周期。
此外,龙虾还对安全、UI、安卓移动端、社交媒体集成做了优化,接下来,我们一起来看。
插件更新
为了提升插件分发安全性和开发规范,OpenClaw对插件安装机制和开发接口进行了大量优化:
除了将插件统一到ClawHub,以及移除旧的openclaw/extension-api以外。
现在捆绑插件必须通过注入的运行时(如 api.runtime.agent.runEmbeddedPiAgent)进行主机侧操作。
所有的直接导入必须指向精简后的openclaw/plugin-sdk/*子路径,禁止再从单体SDK根目录进行全量导入。
而且新版Matrix插件现在由官方matrix-js-sdk直接支持,这将带来更可靠的协议兼容性和加密性能。
安全更新
本次更新中,龙虾进一步强化了身份验证与执行审计。
新版本增加了原生SSH沙盒支持,这意味着你现在可以使用密钥、证书以及 known_hosts进行精细化的身份验证。
原有的共享远程执行与文件系统工具被正式移入核心库(Core Library),而OpenShell则更加专注于沙盒生命周期管理以及可选的 Mirror(镜像)模式。
在执行审批(exec approvals)流程中,系统现在能自动识别 time 等调度包装器。当执行 time … 命令时,审批逻辑会穿透路径,直接绑定到内部的可执行文件。
此外,在架构上,新版本引入了可插拔的后端设计。沙盒运行时正式引入了可插拔后端。无论是mirror(镜像)模式还是remote(远程)工作区模式,都能无缝切换。
在部署上,config set命令现在支持SecretRef(密钥引用)、JSON批量分配,并提供了带有结构化输出的—dry-run校验模式,让配置部署更安全、直观。
最后值得一提的是,新版龙虾将拒绝安装那些试图在官方克隆市场仓库之外(如外部Git、HTTP或绝对路径)的远程插件清单。
交互与效能
在新版龙虾中,当完整的提示词超出maxSkillsPromptChars限制时,系统不再暴力丢弃,而是优先采用紧凑目录回退(Compact Directory Fallback)策略,最大限度地保留已注册的技能条目。
而且当Agent触发自动压缩(Compaction)时,系统会通知用户,但为了保证交互体验,这些通知不会进入语音合成(TTS),也不会破坏助手回复的原有线程关系。
插件现在可以根据传入的modelId在assemble阶段动态调整上下文格式,确保不同规模的模型都能获得最适配的输入。
针对“仅在被提及(Mention)时响应”或被丢弃的房间消息,系统不再过早刷新焦点线程绑定。
这一改进确保了在那些交互频率较低的房间中,闲置的ACP(Agent 控制平面)和会话绑定能够按预期正常过期,有效节省了服务器资源。
为了应对网关重启可能带来的消息风暴,新版本引入了入站房间事件持久化去重功能。
即使在网关重启期间,系统也能精准识别已处理的消息,确保旧消息不会被当作新消息重放,同时保证未见事件在重启后能被准确补发。
模型更新
与以往的更新一样,本次更新对主流模型库进行了深度同步:
系统增加了对gpt-5.4-mini和gpt-5.4-nano的原生前向兼容支持。
OpenAI的默认设置模型已正式切换至gpt-5.4。更重要的是,聊天、图像、语音、嵌入等所有默认值现在都集中在一个共享模块中,未来的模型升级将实现“无感切换”。
MiniMax家族全员升级:默认模型由MiniMax M2.5进化至MiniMax M2.7。同时新增MiniMax M2.7-highspeed等高速版本,并将 /fast命令直接映射至各代的高速模式。
此外,捆绑的API与OAuth插件已合二为一,配置更简洁。
智谱同步:全面对齐GLM 4.5/4.6模型系列,涵盖了最新的多模态条目以及Token计费标准。
Grok 目录已同步至最新的 Pi 支持 ID,并优化了 /fast 模式的路由。Mistral 默认元数据也完成了价格同步,确保使用量统计更加透明准确。
GitHub Copilot动态兼容:现在支持动态模型ID的前向兼容。这意味着即便官方发布了新模型,你也可以在不更新代码的情况下直接调用,保持业务连续性。
每个智能体可单独设置“思考 / 快速 / 推理”模式;不允许的模型覆盖项会自动回退至默认最优选择。
UI与端侧优化
UI界面新增了“圆角(Roundness)”调节滑块,用户可以自由定义从“硬核直角”到“圆润曲线”的视觉风格。同时,聊天气泡增加了“展开至画布”功能,方便处理复杂任务。
此外,界面还重构了使用量概览样式,去除了冗余的占位卡片,信息展示更加响应式且直观。
移动端全面支持系统级深色模式。更重要的是,安卓节点现在具备了短信与通话记录搜索能力,并优化了语音合成(TTS)架构,将密钥保留在网关侧,提升了安全性的同时让播放更流畅。
值得一提的是,飞书现在支持查看/编辑消息、置顶消息、查看群成员等深度操作。
Telegram:支持自定义Bot API端点,自动生成论坛标签,错误回复可静默发送。
Matrix:新增 allowBots 和 allowPrivateNetwork 选项,支持机器人发言和内部服务器连接。
文档更新: 增加了社区版 钉钉 (DingTalk)、QQ 机器人 (QQbot) 和 企业微信 (Wecom) 插件的列表。更新了 Zalo 频道的配置指南。
重要修复
除功能上新以外,这次更新也修复了多个关键安全漏洞。
本次更新修复了可能导致Windows密码泄露和命令伪造的风险:
Windows文件路径加载前会拦截恶意输入,iOS配对码滥用问题以及macOS审批界面Unicode隐藏漏洞也已解决。
性能方面,冷启动时间从分钟级降至秒级:不再重复编译代码,插件采用懒加载,启动时会预热主模型,显著提升体验。
模型与搜索兼容性也加强,OpenAI与第三方大模型不再因字段或重复ID报错,OpenRouter可正常处理视觉模型,Exa搜索支持更多内容提取和更高结果上限。
社交渠道体验优化明显:Telegram回复稳定,不再因父消息删除消失,飞书机器人支持查看/编辑/置顶消息和群成员管理,WhatsApp重连后不会重复处理旧消息。
移动端和控制台也更顺畅:安卓端修复了内存泄漏和深色模式适配问题,多网关设置实现隔离,操作更安全可靠。
One more thing
对于这波更新,不少网友表示很满意。尤其是插件市场方面,这次更新让龙虾更像一个真正的平台。

ClawHub和沙盒功能,也是大家期待已久的亮点。

有网友觉得这次发布令人印象深刻,但其实真正的难点并不在于“更新量”,而在于OpenClaw正在变得更容易扩展、更容易安装、更容易连接工具。

当然,也有不少用户更新后发现:“WhatsApp用不了了?”


对于国内用户,微信好像也出了问题。
网友林亦LYi更新后发现微信这边的ClawBot插件直接挂掉了,还被OpenClaw官方提示“WARNING: Dangerous Code Patterns”。

难道说,龙虾的微信官方插件,就活了一个周末?
参考链接
[1]https://github.com/openclaw/openclaw/releases/tag/v2026.3.22
[2]https://x.com/openclaw
- Meta Agent失控泄密,小扎紧急拉响顶格警报2026-03-20
- 黄仁勋:龙虾就是新操作系统!英伟达7种芯片拼出算力怪兽,放话2027营收万亿美元2026-03-17
- 华人博士4个月干出具身独角兽!斯坦福家务机器人再融11亿,开建中国团队2026-03-13
- 马斯克官宣数字AI员工!世界首富也来养龙虾,测试阶段员工把它当真人2026-03-12




