EdgeClaw 是清华、人大、面壁智能等联合开源的本地 AI 代理,基于 OpenClaw 增强隐私保护。通过 GuardClaw 中间件自动分级敏感度,敏感数据由本地 MiniCPM 模型处理,全程不离设备,断网可用。提供开源软件与 EdgeClaw Box 硬件方案,适合注重隐私的开发者和企业。
Tags:
最近刷 GitHub,发现了清华、人大、面壁智能等一起开源了一个项目,叫 EdgeClaw。
让你在本地部署「小龙虾」,数据完全不出门。
市面上主流的小龙虾 OpenClaw,本身是部署在你本地电脑上的,但做推理还是得调云端大模型。
你的消息、文件、工具调用结果,都会发到云端 API 处理。
密码啥的实际上都经过了第三方云服务。
EdgeClaw 就是冲着这个问题来的。
它基于 OpenClaw,但加了一套隐私保护机制,而且可以用本地模型处理任务:数据全程不离开你的机器,断网也能跑。
EdgeClaw 是 OpenClaw 的安全增强版。
OpenClaw 有的东西它全都有:20+ IM 接入、浏览器操作、文件读写、50+ Skills、子 Agent 系统等等。
多出来的核心东西就三样:
一句话类比:OpenClaw 是一台发动机,EdgeClaw 是装好安全系统的整车。
项目地址:https://github.com/OpenBMB/EdgeClawEdgeClaw 的核心创新是一个叫 GuardClaw 的隐私中间件。
逻辑很简单:自动判断每条消息的敏感程度,然后决定走云端还是本地。
三级自动分级
每一条用户消息、每一次工具调用、每一段 Agent 输出,都会被自动分为三个等级:S1(安全)、S2(敏感)、S3(私密)
S1 级别的内容直接发给云端大模型处理
S2 级别会先脱敏再转发云端
S3 级别则完全由本地模型处理,绝不外传。
整个过程全自动,不需要你手动选这个用本地,那个用云端。
当然,如果你什么都不想上云,也可以全部走本地模型处理,等于就是一个纯本地的 OpenClaw。
分级路由只是默认模式,给你一个选择:简单任务可以让云端大模型发挥更强的能力,敏感任务留在本地零风险。
怎么检测?
双引擎,一个快一个准:
两个引擎并行跑,取最高敏感级别。
EdgeClaw 本地推理推荐使用面壁自研的 MiniCPM 全系列端侧模型。
从轻量级到高性能,整个 MiniCPM 家族都支持:MiniCPM 4.1、MiniCPM-V 等,你可以根据硬件条件自由选择合适的型号。
装好 Ollama 之后,一条命令就能跑起来:
ollama run openbmb/minicpm4.1硬件要求也不算高,量化版通常 8GB 内存就能跑起来,选更大参数的型号对应提高内存就行。这里有个细节我觉得挺关键的。
AI Agent 不是简单的一问一答。
它有完整的执行流程——读文件、调工具、生成子任务、写入记忆。
所以 EdgeClaw 不只是在入口检查一次,而是在整个流程里设了 6 个核心检查点:
另外还额外加了出站消息扫描和子 Agent 隐私注入,一共 8 个 Hook,把安全网铺到了每个角落。
连记忆都是隔离的。
云端模型只能看到脱敏后的对话历史,完整记忆只有本地模型才能访问。
从根本上杜绝了隐私数据通过上下文窗口泄露给云服务。
除了开源软件,面壁还推出了一款配套硬件产品 EdgeClaw Box。
目前已适配松果派、英伟达 DGX Spark、苹果 Mac Mini 等硬件,插上电就能用,不需要技术背景。
插上电就能用,不需要技术背景。
写在最后
EdgeClaw 由清华 THUNLP、中国人民大学、AI9Stars、面壁智能和 OpenBMB 联合开发。
它的核心思路其实挺清晰的:不是让你在隐私安全和AI 能力之间二选一,而是两个都要。
公开数据享受云端大模型的最强推理,敏感数据留在本地零风险。
05
点击下方卡片,关注逛逛 GitHub
这个公众号历史发布过很多有趣的开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:逛逛 GitHub ,后台对话聊天就行了:
没有评论:
发表评论