2026年3月10日星期二

OpenClaw 记忆插件 MemOS 开源:本地部署、多Agent协作、节省72% Token消耗

MemOS 为 OpenClaw AI 助手提供开源记忆系统,支持本地数据存储、多Agent团队记忆共享、可视化面板管理,可节省72% Token消耗。适合开发者长期部署,实现经验沉淀与技能复用,无需API Key即可离线运行。

Tags:

最近跟几个朋友见面,开场白都变成了:你养了几只小龙虾 OpenClaw?

现在 OpenClaw 已经火爆到人人上手养虾,但随之而来,也有不少让人头疼的问题。

比如好不容易积累的丰富经验,对话上下文窗口一长,下次再问,OpenClaw 就像失忆了一样。

如何让小龙虾记住我们的一切、越用越好聪明,成了大部分人都在找的答案。

偶然翻看 GitHub,发现之前提过的 MemOS 超强记忆系统,刚好开源了个 OpenClaw 插件。

据官方给出的数据,Token 消耗直接省了 72% 多。项目本身也是开源免费的,算是把这个痛点给填上了。

图片

话不多说,下面带大家一起看看。

越用越准

很多朋友对 AI 记忆还是充满质疑,说实话我也一样,但 MemOS 在这方面做的相当不错。

比如说:我们和 OpenClaw 花了两个小时,把一个项目成功部署了,中间踩了十几个坑,又来回调试了好几天。

MemOS 会把这两个小时的经验自动压缩复盘:目标是什么,有哪些关键步骤,哪里的配置出过问题,最后是怎么解决的。

然后开始评估:这个任务的流程看起来很清晰了,可以沉淀成一个可复用的技能?

确认这是值得复用的技能,就直接生成 SKILL.md + 执行脚本 + 验证检查,整套技能在后台打包完毕。

图片

如果下次再遇到类似场景, OpenClaw 会直接调用技能,在 5 分钟之内就跑完。

更棒的是,如果后续发现了更好的方法,MemOS 也会自动更新对应的 Skill。

多 Agent 协作,记忆怎么隔离、共享?

但真正让我觉得 MemOS 值得一用的地方,其实是它为 OpenClaw 提供了 「团队记忆」功能。

如今一只龙虾已经满足不了大部分人的需求,通常都是组建一个龙虾军团。

有的负责写代码,有的负责查资料,有的跑自动化,有的专门写 PR 或整理文档。

随之而来会出现很多问题,如果每只龙虾都没有记忆,每次协作都得重新解释一遍背景,效率就和单兵作战差不多。

而 MemOS 提供的 OpenClaw 插件给出了解决方案:部署一个团队记忆(官方叫 Hub),让各个龙虾分身按权限连接进来。

图片

每只龙虾依然保持记忆隔离,避免污染。但那些被标记为共享的经验,如调试方案、部署步骤、最佳实践这些会自动沉淀到团队的知识中枢里。

这样做之后,一个虾踩过的坑,其他虾就不用再踩第二遍。并且还会转变为团队技能,后续可通过语义检索把技能直接调出来用。

另外,Skill 技能还能直接共享给其他龙虾,不仅能调用,甚至还能继续优化迭代,让整个龙虾军团不断持续进化。

数据放哪里,我们说了算

在使用 OpenClaw 的时候,涉及到代码、密钥、内部架构、数据库等等敏感数据,大家都不放心传到云端。

MemOS 本地版把所有数据全部存储在用户本地,地址就在 ~/.openclaw/memos-local/memos.db,一个 SQLite 文件搞定,清清楚楚,随时可查。

没有遥测,没有数据收集,没有任何第三方追踪。

甚至可以离线运行——内置本地 Embedding 模型,不需要配置任何 API Key 就能跑起来。

对于想在私有服务器、树莓派或者低配云主机上长期部署 Agent 的朋友,这是目前最省心的方案。

当然,如果有多设备同步的需求,MemOS 也提供云端版本,两个版本均已全开源,按需选择即可。

甚至有了面板可以管理记忆

以往管理 AI 记忆,只能靠接口调用、翻文件、改配置,排查问题全靠猜。

这次 MemOS 带来的 Memory Viewer 可视化面板,把所有操作都搬上了界面,6 大管理页面,一目了然。

图片

Memories:时间线浏览,支持增删改查和语义搜索,想找哪条记忆直接搜。

Tasks:任务列表,结构化总结全部归档,每次调试经历有据可查。

Skills:技能管理,版本历史可追溯,支持一键下载,把调教好的技能随时带走。

Analytics:读写统计、活跃度图表、记忆分布,一眼看清 AI 在帮你积累什么。

Logs:工具调用日志、输入输出、耗时统计,排查问题不再靠猜。

Settings:在线配置,模型随时可切换,不用重启服务。

安全层面,密码保护 + Session Cookie,仅绑定 127.0.0.1 本地访问,外部网络无法连入。中英双语界面,明暗双主题,深夜 Coding 也不伤眼。

记忆性能,这次认真提了一大截

功能之外,记忆的检索精度和速度也做了全面升级。

底层采用 FTS5 全文检索 + 向量双通道,配合 RRF 融合排序与 MMR 重排,找到的记忆更准,注入上下文的内容更精,不会把无关信息灌进对话里。

系统还通过语义分块和 SHA-256 内容去重,确保每条记忆都完整有效,不重复堆积。

已经在用 OpenClaw 的朋友,也不用担心数据丢失的问题。Memory Viewer 的 Import 页面支持一键迁移原生记忆,历史对话、调试经验、技术方案,智能去重、断点续传,过往积累的一条不丢。

迁移完成后还可以选择自动生成任务摘要和技能沉淀。

图片

60 秒完成部署

1)安装插件

从 npm 安装后启动网关即可。

openclaw plugins install @memtensor/memos-lite-openclaw-pluginopenclaw gateway start

2)配置 openclaw.json

网页面板:http://127.0.0.1:18799 登录后点「设置」。

图片

或直接编辑 openclaw.json:

{  "plugins": {    "slots": { "memory": "memos-lite" },    "entries": {      "memos-lite": {        "config": {          "embedding": {            "provider": "openai_compatible",            "model": "bge-m3",            "endpoint": "https://your-api-endpoint/v1",            "apiKey": "sk-••••••"          },          "summarizer": {            "provider": "openai_compatible",            "model": "gpt-4o-mini",            "endpoint": "https://your-api-endpoint/v1",            "apiKey": "sk-••••••"          },          "skillEvolution": {            "summarizer": {              "provider": "openai_compatible",              "model": "claude-4.6-opus",              "endpoint": "https://your-api-endpoint/v1",              "apiKey": "sk-••••••"            }          }        }      }    }  }}

3)启动 Gateway

openclaw gateway start

启动后,打开 http://127.0.0.1:18799,Memory Viewer 就在浏览器等你了。

写在最后

从 ZeroClaw 解决性能问题,到 OpenFang 打通自动化流程,Agent 基础设施正在快速向工业级标准靠拢。

但始终有一件事没有被认真解决:经验的积累

每个开发者每天都在和 AI 产生大量有价值的对话。这些经验如果能沉淀下来、持续迭代,意味着什么?

意味着不再需要每次打开新对话都重新介绍自己,不再踩重复的坑,不再把同样的技术偏好说了又说。

我们拥有的,是一个随着使用时间越来越懂你的 Agent。

MemOS 做的,正是把这件事变成现实。

往深处看,当每个开发者都能把自己的经验资产系统化沉淀,一个人能管理的 Agent 流程有多少,产出就相当于多少人的团队。

未来的竞争,拼的可能不只是谁用了更强的模型,而是谁积累的经验资产更扎实、更可复用。

  • GitHub 项目地址:https://github.com/MemTensor/MemOS

  • MemOS 官网:https://memos.openmem.net

  • 插件地址:https://memos-claw.openmem.net

今天的分享到此结束,感谢大家抽空阅读,我们下期再见,Respect!

没有评论:

发表评论

智谱AutoClaw安装指南:1分钟部署本地OpenClaw智能体,无需代码与服务器

智谱发布的AutoClaw(澳龙)是一款一键下载即可使用的OpenClaw本地部署工具,无需懂代码、租服务器或额外付费。安装过程仅需登录1次、点击4个按钮、扫描1个二维码,即可在飞书等平台使用。支持预置60多个国内适用Skill、抢先体验Pony-alpha-2模型,并可将原有O...