2026年4月22日星期三

国内用户无需魔法:Claude Code安装与国产模型接入教程(Mac/Win)

本文提供从零开始的Claude Code安装教程,适用于Mac和Windows系统。无需魔法、无需外国手机号或Visa卡,支持接入国产模型(如GLM-5.1)。包含有/无魔法环境下的安装方式、模型配置、CLAUDE.md规范等完整步骤,适合希望使用顶级Agent框架的国内开发者。

Tags:

最近很多朋友都在问我,能不能出一期Claude Code的小白教程。

他们也想用上这个世界上最牛逼的Agent产品。

图片

而且其实很多人不太知道,Agent产品一般是Agent框架+模型组成的,Claude的模型国内确实会封,会非常的难搞,我也没有任何办法教大家弄。

但Claude Code不会被封,也不会用不了,因为这玩意其实就是个Agent框架,搭配任何模型都可以使用。

虽然Anthropics确实很狗,天天封号,又搞实名认证,但我依然不得不承认,这个世界上目前最好的Agent框架,还是Claude Code。

所以我常年说,能一步到位就一步到位,我当然知道现在比如什么OpenClaw、Hermers Agent等等非常火,但是我还是依然会建议你使用Claude Code,即使用不了Claude的原生模型,你搭配个国产模型,效果也依然很好。

而且也不用担心封号,不需要外国手机号,visa卡,甚至都可以不上魔法。

所以今天,就来一篇Claude Code的从0入门全面新手教程,并且尽可能让所有的朋友,都可以用上,Windows和Mac,有魔法没魔法的操作,我都准备了,大家按需看对应的部分就行。

下面的安装流程,是我一整个周末,跟我们小伙伴一起,折腾了五六台电脑反复安装卸载试出来的。

比如有些场景,像没有魔法,其实还有其他安装方式,像npm,又或者直接curl国内镜像源,这些办法其实也能用,但我在不同电脑上测试的时候并不够稳定。

所以最后,我选了在我看来最简单,并且在极度原始的电脑上测试也不容易翻车的方式。

只希望大家跟着文章,都能顺利地用上世界上最牛逼的Agent框架。

我会把每一步都给大家说得尽量详细清楚,可能会有些啰嗦,大家别介意。

好了,我们直接开始。


一. Claude Code 安装

1. Mac

先来看Mac,Windows同学可以直接跳过Mac这一趴去下面找Windows的教程。

我们先在App中找到终端打开。

图片

我们先来安装一下今天的主角,Claude Code。

这里我给自己的电脑新建了一个全新的macOS账号,基本等同于空电脑,方便演示。

先聊有魔法的情况。

命令就一句话。

curl -fsSL https://claude.ai/install.sh | bash

我们在终端粘贴这条命令后,按下回车。

图片

等一会,就能看到安装成功。

图片

虽然装好了,但这里有可能他也会给出一个提示。

图片

意思是说,Claude Code已经装好了,但Claude Code的安装位置~/.local/bin还没加到你的PATH环境变量里,所以你直接敲claude可能找不到这个命令。

还说要解决这个问题,请执行下面那条命令巴拉巴拉。

看不懂也没关系,我们就按他说的,把他给出的那一长串echo命令复制到终端里,回车跑一下。

然后输入claude --version,有版本号输出,就表示安装成功了。

图片

有魔法的情况非常简单,但是我也知道,很多同学是没有魔法的。

所以,如果没有魔法的话,我们可以通过homebrew安装。

Homebrew是macOS上最流行的命令行包管理器,作用是让你用一条命令就能安装、更新、卸载各种软件和开发工具。

这里我借了一台我们经纪小伙伴的新电脑,没有魔法,环境非常干净。

我们先来装一下brew,看着可能会有点复杂,但是其实你跟着做,特别简单。

把下面这行命令粘贴到命令行,回车运行。

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
图片

看到提示之后,我们直接回车。

然后他就会跑啊跑啊。

耐心等待几分钟,等他跑完,出现安装成功就装好了。

图片

下一步,我们需要把homebrew加到路径变量里面去,这样我们在终端使用homebrew的时候他才能找到命令。

图片

把这几行命令粘贴到终端里跑一遍。

图片

这样,我们就可以使用homebrew来管理Mac包了。

接着,用下面这行命令来装Claude code,这里因为公众号编辑器会自动改一些格式,直接复制粘贴会报错。辛苦大家手敲一下,或者发给claude让他改了,再粘贴到终端。

brew install --cask claude-code@latest
图片

这里的安装速度有点慢,大家可以先去抹灰鱼,忙完了回来看。

等安装成功出现,我们在终端输入claude,就能看到小螃蟹了。

图片

但是这里,会显示用不了,可以先不管,一会我们会教大家怎么接上模型。

mac说完了,然后在单独说一下Windows,会稍微有一点点不一样,安装好的Mac同学可以直接跳过这一趴。

2. Windows

再来看Windows。

我这里拿了一台刚刷机过的Windows来装了一遍。

因为Claude Code在Windows上内部是用Git Bash来执行命令的,所以要想在Windows上用Claude Code,必须先把Git安装上。

所以第一步,我们先把Git装上。

已经装好的朋友可以跳过这一趴。

用WinGet来装,这个东西是Windows官方的包管理器,可以理解成Windows版本的Homebrew。

我们在任务栏搜索终端打开。

图片

粘贴下面的命令到终端,这里安装的时候不开魔法速度会快很多。

winget install Git.Git

跑完就会显示成功安装了。

图片

Git装好了之后,老规矩,我们先说有魔法的情况。

有魔法的朋友,我们还是用他官方的原生安装命令。

粘贴命令到终端。

irm https://claude.ai/install.ps1 | iex
图片

等一会就安装好了。

图片

非常便捷。

如果没魔法的话,我们就得使用WinGet来安装。

在终端中运行这行命令。

winget install Anthropic.ClaudeCode
图片

等他安装成功后,同样可以输入claude,就能看到已经安装成功了。

图片

到这一步,从道理上讲,我们在终端里输入claude,就能进到Claude Code页面了。

但是。

我们这里光装了框架,还没给他安脑子,所以还没法用。

那接下来,我们就需要把他的脑子接上。


二. 接模型

如果是有Claude账号的,直接登录就行了,这里我就不细说了。

因为理论上你已经有Claude账号了,你也不会来看这个保姆教程。。。

所以,为了让国内所有的小伙伴都能用上,这里我用国产模型GLM-5.1来举例子。

因为GLM-5.1是目前我用下来觉得国内效果最好最接近Claude Opus 4.6体验的。

当然,你要是没抢到他们的coding plan的话,用MiniMax M2.7和K2.5也都不错,K2.6 code应该也快出了,感觉kimi也会有一波飞跃,推荐大家可以蹲一下。

然后GLM5.1这块,智谱官方有提供一句话命令来安装,特别简单。

npx @z_ai/coding-helper

但这里,为了方便大家也能接入其他模型并且随意切换,所以,我们教大家一个更通用的方法,也就是,用CC Switch。

还是分Mac和Windows。

1. Mac

在Mac上,他的安装就两行命令,第二行命令同样因为格式原因,直接复制粘贴会报错。辛苦大家手敲一下,或者发给claude让他改了,再粘贴到终端。

brew tap farion1231/ccswitchbrew install --cask cc-switch

在终端粘贴,回车运行。

图片

等他装好就成了。

图片

2. Windows

Windows的话,推荐直接去下面的链接下载安装包。

https://github.com/farion1231/cc-switch/releases

图片

如果你进不去github,那我也给大家准备好了本地安装包,你对着公众号后台回复cc就会自动给你发下载链接了。

下载后双击运行,然后可以一路next到底,就安装好了。

图片

后面的操作Mac和Windows一样,就不分开说了。

装好后,我们打开他。

一进去能看到,这玩意其实不仅适用于Claude Code,Codex、小龙虾这些都能用。

因为我们这里还没配置,所以目前只有Claude官方的模型配置。

在Claude那一栏下面,我们点右上角的加号,新增模型配置。

图片

然后选择我们想要使用的模型,这里我选的是GLM国内版。

图片

接着要填的就两部分,API key(这块如果不知道什么是API Key的,可以去直接问你能用上的任何AI,他们都会帮你解决)和模型配置,其他的他都会自动帮我们填好。

图片

填好之后,我们点击右下角的添加就行.

图片

他就会切换到我们配置的模型上。

图片

到这一步,Claude Code的安装和GLM-5.1的接入就完成了。


三. 启动Claude Code

我们回到终端,输入claude,回车。

图片

就可以正常启动claude code了。

第一次使用,会先有一些初始化设置。

比如颜色模式,模式下面有代码预览,大家根据自己的喜好来就好。选中回车。

以后想改,在Claude Code里运行/theme就行。

图片

接着是安全提示。

图片

就两点。

一个是Claude会犯错,它生成的代码、它要执行的命令,你都应该过一眼再放行。

一个是只在你信任的代码库里用Claude Code,避免提示词注入攻击。

我们直接回车进入下一步。

是问我们是否使用Claude Code的终端设置。

图片

这里,直接使用他推荐的终端设置就可以。

其实就是他想帮你启用两个东西。

快捷键实现在终端里换行。

另一个是Visual bell,视觉提示。

也就是Claude跑完任务或者需要你确认的时候,终端窗口的页面会闪一下,Dock图标会弹跳一下,提醒你。

最后一步,就是和你确认当前所在目录,是否可以信任。

图片

这里选择是,然后回车。

我们就终于来到接入GLM-5.1的Claude Code的对话界面了。

图片

后续想要切换模型,在CC Switch里面配置好,在Claude Code里面用/model切就行。

图片

至此,所有的安装接入操作就完成了。

后续用的话,直接在终端输claude就行了。

这里推荐大家用下面这行命令,特别是开发的时候,不然点各种allow会点到你怀疑人生。

claude --dangerously-skip-permissions

然后我们启动的时候,因为上下文设计,为了让他有约束,更加的专注,所以我们是需要对着一个文件夹进行启动的,而不是直接在根目录启动Claude Code。

我自己就分了一下目录,文稿是我拿来做知识创作了。

图片

还有一个code文件夹,下面都是我自己开发的各种各样的产品。

图片

在命令行中对着一个命令行启动Claude Code也特别简单。

就是cd命令,这块Mac和Windows是一样的。

比如我要进入知识库这个文件夹进行创作。

那就打开终端,输入cd,然后一定要记得按一下空格,再把你的文件夹,直接拖进去。

图片

按下回车,就算是进入这个文件夹了。

然后这个时候再用命令启动Claude Code就可以。

图片

你就会进入到这个文件夹下,它默认就只在这个文件夹下工作,默认读取你这个文件夹下的所有文件。

图片

这样其实上下文污染更小,也更专注,换句话说,就是更聪明。


四. 写CLAUDE.md

学会启动之后,其实你就可以正式的对话了,随便让他干活就行。

但还有个规范和你在深度使用之前,有一个很重要的习惯,我觉得是需要让你先设置的,不要再踩我走过的老坑,先定好你的CLAUDE.md文件。

而在我看来,这甚至是学会启动Claude Code之后,第一件该做的事。

在上具体写法之前,我还是先和大家聊一聊CLAUDE.md是个啥。

这个东西,它不简单是一份文件,它是一个从上往下分层穿透的约束体系。

就像我之前用过的这张图。

图片

刚装完,我们应该去管的两层,就是全局CLAUDE.md和项目CLAUDE.md。

全局CLAUDE.md,放在用户总目录的Claude Code根目录下面,~/.claude/CLAUDE.md。

图片

只要你打开Claude Code,不管你进的是哪个项目,它都会被自动加载和遵守。

这是他的顶层规范。

它可以解决的是你是谁、你做事的原则、你希望他用什么方式跟你协作这一层的问题。

而项目级CLAUDE.md,放在每个项目的根目录下,路径就是项目目录/CLAUDE.md。

图片

它只在你打开这个项目的时候才会被加载。

它解决的是这个具体的项目要怎么干,有什么特殊约定这一层的问题。

我们先来聊全局CLAUDE.md,也是第一个需要定好的东西,但是到底该往CLAUDE.md里写什么、怎么写、写多长、放哪里,很多人其实不清楚,对于非开发者来说,我也分享一下我的经验。

关于长度,CLAUDE.md不是越长越好,反而是要尽量精简。

你的CLAUDE.md写得太长,后半段的内容它会直接忽略掉。

具体的红线数字是这样的,超过80行,Claude开始遗漏部分内容,最多最多,一定不要超过200行。

之前的一篇文章,我也给大家看了我的全局CLAUDE.md文件里面都是哪些内容。

在我的内容的基础上,我又迭代了一下,为大家准备了一份模板。

里面都是一些我觉得一份不错的全局CLAUDE.md应该有的东西。

大家只需要在关于我里面,写上自己的内容,其他基本都是可以直接复用的。

## 关于我[你的名字 / 身份 / 职业背景,非程序员的话一定要写出来]。我用 Claude Code 做 [具体用途 1] 和 [具体用途 2]。
## 思维原则所有决策从问题本质出发,不因「惯例如此」照搬。回到问题本身:要解决什么?最直接的路径是什么?从零设计会怎么做?不要谄媚。不要夸我的想法好、不要说「这是个很好的问题」、不要开头加「当然可以」。给我真实判断,方案有问题直接指出来。发现更好的做法直接说,不用等我问。
## 约束先行无论开发项目还是知识管理项目,第一步永远是建规则:新项目先写 CLAUDE.md,新目录先定结构约定(什么放哪、怎么命名、何时清理)。没有规范的工作空间不动手。已有规范的项目,严格遵守其 CLAUDE.md 中的约定。需要调整规范时先改文档、再改实践,不要反过来。
## 沟通方式- 默认中文,代码、命令、变量名用英文- 结论先行,再给理由,不要先铺垫背景- 遇到模糊需求,先给最合理的方案,再问要不要调整- 不要问「你确定要这样吗」,除非命中下方红线
## 自主边界(红线,必须先问我)以下操作即使在 auto-accept 模式下也必须停下来问我:- 删除文件、目录或 git 历史- 修改 .env、密钥、token、CI/CD 配置- 数据库 schema 变更或数据迁移- git push、git rebase、git reset --hard、强制推送- 安装新的全局依赖或修改系统配置- 公开发布(npm publish、部署到生产、发文章等)
## 通用工程纪律- 改完主动跑验证(具体命令见各项目 CLAUDE.md),不要只改不验- 不要为了让代码跑起来注释掉报错或加绕过标记,找根本原因- 密钥、token、密码不进代码、不进 commit、不进日志- 大改动前先在 Plan Mode 出方案,我确认后再动手

一共30多行,分成六个部分。

这六个块都有一个共同特征,就是跨项目通用。

全局的CLAUDE.md定好了,我们顶层的规范就有了。

那至于下一层,项目CLAUDE.md。

拿我自己举例。

我主要用Claude Code来做开发和知识管理。

比如我的code/my目录下就有一个CLAUDE.md,这个的作用,主要就是my文件夹下,经常coding的都是一些可能一次性的、或者我实验性质的乱七八糟的东西,其实都非常的小,所以我真的懒得每次都在my下新建一个文件夹。

图片

所以我现在常用的做法,就是直接cd到my文件夹启动,然后愉快的开始说出我自己的需求帮助我coding,那有了这个CLAUDE.md文件之后,他就会自己判断这是不是一个新产品,如果是的话,那就直接帮我新建一个文件夹开始做,这样整个文件管理,就会变得井井有条了。

图片

而这个文件其实也完全不用你自己写,你就直接打开那个文件夹,然后和Claude Code聊就行,你直接把你的需求,和你在意的事情,和他探讨,让他给你写一份就OK了。

图片

我自己这几天也在好好跟我的Claude Code制定各种规范,整理我之前遗留下来的各种屎山。

那如果你的电脑上现在还什么都没有的话,那就更方便了。

这也是我一直强调约束先行、规范先行的原因之一。

约束定好了,那就真的可以开始玩起来了。

而skills,plugins,常用命令、功能这些。

我这里就不展开了,我也写过了很多相关的文章,感兴趣的小伙伴可以直接去对应着搜索关键词就行。

图片


写在最后

终于把这篇拖了很久很久的保姆级Claude Code教程写完了。

Claude Code,就是我推荐你的当前AI版本的毕业工具。

你根本无需使用各种乱七八糟的那些Agent,用好Claude Code,你就真的能感受到,什么是最牛逼的Agent了。

希望大家都能愉快创造。

做出这个时代。

属于你自己的作品。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:卡兹克,tashi

>/ 投稿或爆料,请联系邮箱:wzglyay@virxact.com

2026年4月21日星期二

生化危机女主开源AI记忆系统MemPalace GitHub已获近5万星

MemPalace 是 Milla Jovovich 开源的本地AI长期记忆系统,支持语义搜索与四层记忆栈,在 LongMemEval 基准上纯本地检索召回率达96.6%。适合 AI 重度用户与开发者,完全本地运行、无需 API Key。需注意宫殿架构可能对检索性能有负面影响,早期宣传存在过度争议,建议尝鲜而非生产环境使用。

Tags:

Milla Jovovich 这个名字你可能不熟,但你一定看过她的电影。

生化危机里的女主爱丽丝,第五元素里的莉露,好莱坞硬核动作女星。

图片

但 2026 年 4 月,她刷屏的方式不太一样:她在 GitHub 上发了一个叫 MemPalace 的开源项目,48 小时拿了 7000 Star,一周破 19000。

现在已经 4 万多了。

图片

一个动作女星搞开源 AI 项目,这个反差本身就够聊的。

这个项目本身到底怎样,坦率讲,有亮点,也有挺明显的硬伤。

01

她为什么要做这个

Milla 自己在 MISSION.md 里写了她做这个项目的起因。

她长期用一个叫 Lumi 的 AI 助手协作开发项目,遇到一个所有 AI 重度用户都头疼的问题:上下文压缩之后,AI 就失忆了。

她形容 Lumi 每次醒来都跟新同事一样问今天我们要干嘛,而她明明之前已经跟它聊了好几个小时。

图片

她试了市面上各种记忆系统,觉得都差点意思。

她的原话大概是:这些东西就像空仓库,你往里面堆了很多信息,但真要找的时候搜半天也搜不到。

她特别想要一种模糊回忆的能力:就是那种"我们之前聊过类似的东西吧?"的感觉,普通关键词搜索根本做不到。

所以她和工程师 @bensig 一起,从自己的真实痛点出发,用 Claude Code 搞了这么一个东西出来。

这个出发点是实在的,不是为了蹭 AI 热度瞎搞。

02

MemPalace 是什么

一句话概括:MemPalace 是一个本地运行的 AI 长期记忆系统。

它把你的对话和项目文件逐字存下来,然后用语义搜索来检索。

注意关键词:逐字存储,不做摘要,不做改写。

这个设计选择挺有意思的。

大部分记忆系统会对内容做压缩或者摘要来节省空间,但 MemPalace 坚持存原文。

好处是信息不丢失,坏处是存储成本高。

不过对于个人使用来说,磁盘空间不是问题,信息保真才是。

图片

它的存储结构借用了记忆宫殿的概念:

Wing(翼)是顶层单位,一个项目或者一个人就是一个翼。

Room(房间)是具体话题,比如 auth-migration、deploy-process 这种。

Closet(壁橱)是压缩索引,指向原始内容的位置。

Drawer(抽屉)是逐字保存的原始对话文本。

另外还有 Tunnel(隧道)做跨翼关联,如果不同项目里聊了同一个话题,graph 层可以自动把它们连起来。

图片

灵感来自两套老东西:

古希腊演说家把演讲内容放在想象建筑的各个房间里的记忆宫殿技法,还有德国社会学家卢曼的卡片盒笔记法。

用互相引用的小卡片管理了几万条笔记。

听起来很优雅。

但优雅的理念不等于好的效果,后面会说实测数据。

开源地址:github.com/MemPalace/mempalace

03

四层记忆栈

这是整个项目里工程上最有价值的部分。

MemPalace 设计了一个 4 层渐进式加载的记忆栈:

L0 是身份层,大概 50 个 token,告诉 AI 它是谁、服务谁。

L1 是关键故事层,大概 500-800 token,系统自动从所有记忆里挑出最重要的 15 个时刻,按房间分组,作为每次 AI 唤醒时的核心上下文。

L2 是按需回忆层,只有聊到某个具体话题的时候才加载对应的房间内容,大概 200-500 token。

L3 是深度搜索层,对整个记忆宫殿做全量语义检索。

核心思路是:不需要把所有记忆一股脑塞进 prompt,按需加载就好。一个典型的 AI 唤醒大概只需要 600-900 token,比把全部历史塞进去要省很多。

另外它还有个叫 AAAK 的压缩方式,Milla 自己说这个名字没什么含义,就是她跟 Lumi 之间的内部笑话。

它把人名、重复概念、关键时刻压缩成极简速记,存在 Closet 里作为索引,指向 Drawer 里的原始内容。

有点像图书馆的目录卡:先查卡片知道在哪,再去书架上拿书。

04

实打实的性能数据

先说好的一面。

MemPalace 的纯语义搜索确实挺能打。

在 LongMemEval 基准上,Raw 模式拿到了 96.6% 的 R@5 召回率。

这个数字不需要任何 API 调用,不需要 LLM,纯靠 ChromaDB 向量检索,完全本地跑。

Hybrid v4 模式在 held-out 集上拿了 98.4%,这个数字也是诚实的。用 50 条调参,450 条没见过,不是拿训练集跑出来的。

LoCoMo、ConvoMem、MemBench 等多个基准都有公开可复现的结果。

96.6% 的纯本地检索,这个成绩本身是硬的。

图片

但接下来要说的,就是这篇文章最该聊的部分了。

硬伤:宫殿结构反而是负增益

这是 MemPalace 最大的问题,也是很多人不知道的。

项目自己的 BENCHMARKS.md 里记录了一组数据:

Raw 模式(纯语义搜索,不加任何宫殿特性):96.6%

启用 Rooms(元数据过滤):89.4%,掉了 7.2 个百分点

启用 AAAK 压缩:84.2%,掉了 12.4 个百分点

也就是说,MemPalace 最核心的卖点:那个精心设计的宫殿架构、结构化的 Wing/Room/Closet 层级,在检索性能上非但没有帮忙,反而拖了后腿。

96.6% 的好成绩靠的是底层 ChromaDB 向量检索本身,跟宫殿架构没关系。

这不是我说的,是项目自己测出来的数据。

这并不意味着宫殿结构毫无价值。

从信息组织的角度看,Wing 和 Room 的划分对于多项目、多人的场景确实有帮助,它能让你按范围检索而不是在整个库里大海捞针。

如果你追求的是纯粹的检索准确率,这套结构目前没有带来正面的数据支撑。

可能的原因是结构化检索本身就比纯语义搜索更难做对:加了一层过滤条件,就有可能过滤掉本该命中的结果。

但这只是一个猜测,具体原因可能需要更深入的分析。

用户在决定是否用之前,应该知道这个事实。

05

生态整合做得还不错

抛开争议,MemPalace 在生态整合这一层做的是不错的。

它提供了 MCP Server,有 29 个工具,覆盖检索、知识图谱、跨翼导航这些操作。

Claude Code、Gemini CLI、各种 MCP 兼容工具都能直接接入。

后台 Hooks 可以自动存档对话内容,不需要你在聊天窗口里手动触发。Milla 说她实测这个功能把每轮对话省了大概 1.13 美元的重复传输成本。

Agent 日记功能让不同的专业 Agent 各自有独立的 wing 和 diary,互不干扰。

一个 reviewer agent 记 bug 模式,一个 architect agent 记架构决策,不会混在一起。

支持 8 种语言包括简繁体中文。

后端可插拔,默认 ChromaDB,接口开放可以换。

隐私方面,全部本地运行,数据不上传,不需要 API Key 就能用核心功能。

SQLite 存知识图谱,ChromaDB 存向量。在 AI 工具普遍要你交数据的今天,这点确实值得肯定。

最后说说这个项目绕不开的争议。

4 月 5 日项目公开之后,很快在社区引发了讨论,而且讨论的方向挺激烈。

早期宣传里有两个大问题。

一个是声称 Palace 架构能带来 +34% 的性能提升,实际上恰恰相反,前面说了,实测是负的。

另一个是 LoCoMo 基准上宣传的 100% 召回率,后来发现那个结果绕过了检索环节,本质上不算数。

然后发生了一系列事:

先是否认和辩解。然后是承认数据有问题。

接着公开撤回了 +34% 和 100% 的宣传。

重写了 README 和文档网站。把所有 benchmark 方法和原始数据公开。补了 42 个回归测试防止类似问题再出现。

整个纠错过程大概花了 10 天。

有趣的实验,谨慎地用

聊聊整体判断,亮点是有的。

四层记忆栈的按需加载思路确实有工程价值。

96.6% 的纯本地检索召回率是实打实的好成绩。本地优先、隐私保护的立场在 AI 工具里算稀缺的。

Milla 的真实痛点驱动也让这个项目比很多跟风的 AI 项目更有说服力。

问题也很明显。

核心卖点宫殿架构在检索性能上没有数据支撑,甚至有负面影响。

早期宣传过度已经是不争的事实。项目的长期维护能力也存疑,毕竟核心团队就那么几个人。

目前的 MemPalace 更像是一个有趣的实验,而不是一个可以在生产环境里放心用的工具。

如果你是 AI 协作的重度用户,愿意尝鲜,能接受一些边界情况,可以试试。但如果你要的是稳定可靠的企业级记忆方案,建议再观望。

上手很简单:

pip install mempalacemempalace init ~/projects/myappmempalace mine ~/projects/myapp
图片

06

点击下方卡片,关注逛逛 GitHub

这个公众号历史发布过很多有趣的开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:逛逛 GitHub ,后台对话聊天就行了:

图片

国内用户无需魔法:Claude Code安装与国产模型接入教程(Mac/Win)

本文提供从零开始的Claude Code安装教程,适用于Mac和Windows系统。无需魔法、无需外国手机号或Visa卡,支持接入国产模型(如GLM-5.1)。包含有/无魔法环境下的安装方式、模型配置、CLAUDE.md规范等完整步骤,适合希望使用顶级Agent框架的国内开发者。...