各位极客朋友们,就在刚刚,开源AI Agent圈子迎来了一场实打实的“大地震”!
龙虾热潮余温未散,OpenClaw官方毫无征兆地甩出了全新的v2026.3.7-beta.1版本。创始人Peter Steinberger亲自在X上高调官宣,配文极其自信甚至有点狂:“我不记得上次有哪个版本有这么多提交了。但这是值得的。”

89项核心代码提交,200多个Bug被连根拔起,全新的ContextEngine插件接口横空出世,更是双首发适配了当前最强的GPT-5.4与Gemini 3.1 Flash。

这不仅是OpenClaw史上变更最密集的一次更新,更是开源力量向闭源大厂秀出的一波极致肌肉。废话不多说,我们直接拆解这次更新到底有多生猛。
把顶级大模型当路由器玩
新版本最直观的爽点,就是全面适配了OpenAI的GPT-5.4以及Google的Gemini 3.1 Flash。但OpenClaw的野心绝不仅仅是“接入”这么简单。
在模型切换底层,官方这次彻底优化了降级与重试机制。你可以把现在的OpenClaw想象成一个超级“模型路由器”。当GPT-5.4遭遇限流或者响应超时,系统根本不需要你动手,瞬间就能无缝切换到备选的Gemini或者Claude,用户端甚至感觉不到卡顿。哪个好用切哪个,哪个便宜用哪个,这种打破厂商壁垒的灵活度,绝对是单一AI助手永远给不了的快乐。
开发者苦等半年的记忆插拔神技
做过AI应用的人都知道,上下文管理简直就是智能体开发的噩梦。对话一长Token就炸,稍微压缩一下关键细节就丢得一干二净。
这次更新的最硬核杀手锏,就是全新推出的ContextEngine插件接口。它直接开放了一整套完整的生命周期钩子,从初始化、注入、组装,到压缩、回合后处理,甚至子智能体生成的全流程都被彻底打通。
开发者现在终于可以在完全不修改OpenClaw底层核心代码的情况下,自定义上下文处理逻辑了。你想搞一套激进的记忆压缩算法?没问题。你想给不同的子任务分配完全隔离的记忆空间?接口全给你留好了。这标志着OpenClaw正式从一个“好用的工具”,进化成了一个“深不可测的平台”。难怪在GitHub的Issues里,有开发者直呼等这个接口等了快半年。

修补两百多项Bug的硬核长线工程
检验一个开源项目能不能活得长久,Bug修复的密度是最好的照妖镜。这次的更新日志里,Fixes板块足足拉出了200多条记录。
从Discord断连后的死机噩梦,到Telegram草稿流的重复幽灵,再到工具调用时的参数解析漏洞,甚至还堵住了沙盒逃逸的安全风险。顺带一提,这次Telegram端还新增了主题级别(Topic)的智能体路由隔离,你在同一个群的不同主题里跑不同的AI,它们终于学会互不干涉了。
Peter团队这种不怎么花钱搞PR,全靠产品质量和社区口碑硬肝的做派,在如今浮躁的AI圈子里显得极其异类,但也极其迷人。
把数据和灵魂留在自己手里
OpenClaw的故事,其实就是开源社区对抗闭源巨头的一个缩影。大厂有无可匹敌的算力和精致的UI,但开源却握着这个时代最稀缺的东西——信任。
当你把AI部署在自家的服务器上,随时翻看源码,随心所欲地切换模型和记忆策略,那种一切尽在掌握的控制感,是任何大厂产品都无法替代的。OpenClaw 3.7也许没有在一夜之间颠覆赛道格局,但它实实在在地让这个地基变得更稳、更开放了。
那么问题来了,你的下一个AI工具,是准备把数据继续上交给大厂,还是选择把它的灵魂留在自己手里?欢迎在评论区聊聊你的看法!
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...













