
新智元报道
经过九天的沉寂,OpenClaw终于迎来了3.22版本的重磅更新,带来了全新的插件架构和安全防护升级。
这次更新不仅是对过去九天的等待的回应,更是OpenClaw的一次重大突破。


Peter Steinberger刚刚宣布,OpenClaw的2026.3.22-beta.1预览版已经上线。

新版本的最大亮点是对插件系统的彻底重构。
新的插件SDK(openclaw/plugin-sdk/*)已经上线,取代了旧有的扩展API。
此外,OpenClaw官方确认,ClawHub将成为首选的插件分发渠道,进一步提高了生态系统的纯净度。
在安全方面,新版本也进行了一系列重要改进,尤其是针对Windows用户的环境加固。

通过一系列的更新,OpenClaw的新版在全网引起了广泛关注。
特别值得注意的是,模型配置升级到了GPT-5.4,进一步提升了功能。
新版本还优化了UI交互、长对话压缩机制以及Android端的深色模式等细节。
OpenClaw的这次大更新,让许多用户兴奋不已,纷纷尝试新功能。
OpenClaw的这次更新,不仅增强了功能,还提升了系统的安全性。


在过去的九天里,OpenClaw团队一直在为这次更新做准备。
这次升级不仅仅是简单的功能更新,而是一次全面的技术革新。
早在更新预告阶段,一张龙虾图就预示了这次更新的重大意义。
今天的这次更新,终于展示了OpenClaw的真正实力。


这次更新的核心可以概括为以下几点:
1. 插件系统的全面重构,新的SDK完全取代了旧API,ClawHub成为首选的插件分发渠道。
2. 安全性显著提升,十多个重要漏洞得到了修复。
3. 模型阵营进一步扩充,GPT-5.4成为默认模型,其他模型也进行了整合。
4. 用户体验得到进一步优化,包括Android深色模式等细节改进。
新版本的插件系统已经进行了全面的改造。
这次更新最核心的变化就是插件系统的彻底重构。
旧的openclaw/extension-api已经被完全移除,没有过渡阶段。
新的openclaw/plugin-sdk/*模块化接口取代了旧的API。
所有使用旧API的第三方插件都需要迁移。
甚至旧有的nano-banana-pro图像生成工具也被统一到新的路径。
现在,ClawHub成为默认的插件安装来源。
之所以这样做,是因为ClawHub是由OpenClaw官方维护,质量更有保障。
插件生态的“净化运动”已经开始。
此次更新还增加了对Claude、Codex、Cursor等主流开发工具插件的支持。
这意味着,外部插件可以直接在OpenClaw中使用。
OpenClaw已经成为一个开放的平台,能够吸纳外部生态。
安全性方面的改进同样重要。
新版本一口气修复了十多个安全漏洞。
其中,Windows上的SMB凭证泄露问题得到了解决。
攻击者可以通过特定路径触发SMB认证握手,泄露凭证。
新版本全面拦截了这种远程路径访问。
另一个重要的改进是执行环境的沙盒加固。
新版本封锁了多个JVM注入路径,堵住了利用通道。
也拦截了.NET的依赖劫持。
Unicode零宽字符审批伪装漏洞也得到了修复。
新版本转义了这类字符,避免被恶意利用。
语音通话Webhook的预认证防护也得到了加强。
新版本限制了未认证的调用者的资源消耗。
对公网部署的用户来说,这次更新是必须的。
模型方面,新版本也进行了重要升级。
默认OpenAI模型切换到了GPT-5.4。
MiniMax模型从M2.5升级到了M2.7。
Anthropic Vertex也正式接入。
xAI的Grok目录和Z.AI的GLM也进行了更新。
OpenClaw作为模型路由器的定位,得到了更多厂商的认可。
新版本还优化了多平台的用户体验。
Android端现在支持了跟随系统的深色模式。
Telegram新增了DM论坛话题的自动重命名功能。
飞书也增加了一些实用的新功能。
浏览器集成方面,新版本支持通过userDataDir直接连接Chromium内核的浏览器。
沙盒系统也进行了架构升级,新增了可插拔的后端支持。
Agent引擎方面,长对话压缩机制得到了优化。
新版自动延长运行截止时间,避免压缩中断。
压缩后还会修复孤立的tool_result块。
默认Agent超时时间也延长到了48小时。
新版本还增加了一个便捷的新功能:/btw命令。
这种更新节奏表明,OpenClaw团队已经从追求功能数量转向了注重工程实现。
这次更新全面提升了OpenClaw作为一个可信赖的AI智能体平台的性能。
Peter Steinberger和他的团队已经清楚地认识到这一点。
沙盒系统也迎来了架构升级,新增了可插拔的后端支持,首批上线了OpenShell和SSH两个后端,沙盒管理不再绑定Docker单一方案。
Agent引擎:压缩更聪明,调度更从容
Agent层面有几个值得单独说的点。
长对话压缩机制(Compaction)做了多轮迭代。
新版在压缩过程中会自动延长运行截止时间,避免大型会话压缩到一半被超时杀掉。
压缩后还会自动修复孤立的tool_result块,不让历史记录中的残余数据炸掉后续的Anthropic请求。空会话的压缩也终于不会陷入死循环了。
默认Agent超时时间从600秒,直接拉到了48小时。
跑长任务的ACP会话,终于不用再被10分钟的默认限制卡脖子。
还有一个贴心的新功能:/btw命令。在对话过程中,你可以随时用/btw插入一个「旁白问题」,AI会快速回答但不影响当前会话的上下文。
就像跟同事开会时,侧过身低声问一句题外话,问完继续开会。
9天沉默,换来的是什么?
9天,一次大版本。
这种更新节奏说明一件事:OpenClaw团队已经过了「堆功能冲Star」的阶段,开始认真做工程了。

从升级点中不难看出,这是一款产品在同一时间,朝着「可信赖的AI智能体平台」这个目标,做了一次全面收拢。
这些升级可能不会出现在宣传海报上,但它们决定了谁敢把OpenClaw拉进生产环境。
敢用,比好用更难。
Peter Steinberger和他身后那群全球极客,显然已经想明白了这件事。
龙虾不睡觉。

参考资料:
https://x.com/steipete/status/2036020395200090484?s=20
