2026年5月1日星期五

开源神器CC Switch一键切换所有Agent模型,50K星标免费工具

CC Switch是GitHub上50K星标的开源桌面应用,支持Claude Code、OpenClaw等6种Agent工具一键切换模型。无需手动修改配置文件,只需选供应商、填API Key、选模型三步即可。提供热切换、用量追踪、故障转移等功能,适合开发者高效管理多模型调用。全平台可用,数据本地存储安全。

Tags:

上周我一连发了好几篇模型评测的文章。

特别是上周五,直接化身鸡排哥一天三连发。

然后,很多朋友就在下面问我。

图片

其实说实话,上周一我已经写了一篇超级详细的Claude Code使用教程,里面就有很大的篇幅,写的就是如何在Claude Code里接国产模型这件事。

不过说实话,其实大家都懂,就是那么长的教程文,其实看的后面的真的没几个。

所以,我也觉得,得把这个我自己真的用的非常多也超级好用的小工具,单独拎出来详细的写一篇,分享给大家。

毕竟,这个工具在我看来,他目前确实不仅是Claude Code里接国产模型,也还是其他的各种Agent产品比如OpenClaw、Hermes等等里面,切换模型最方便、最好用的一个。

他就是开源的大名鼎鼎的cc switch,至今在github上已经50k的星标了。

图片

链接在此:

https://github.com/farion1231/cc-switch

它的工作原理也超级简单,就是直接帮你去改模型配置文件。

因为大家要知道其实要给Claude Code、OpenClaw之类的Agent产品,改你的背后的模型,其实对于非程序出身的绝大多数的普通人来说,是有一点麻烦的。

因为,你是真的要懂一点代码,知道啥叫配置文件,才能去手动修改的。

在Claude code里,这玩意就是settings.json文件。

图片

你只要自己手动改过一次Claude Code的settings.json,你就知道这事到底有多烦。

我到现在还记得,当初GLM-5刚发布的时候,我想试一下,把它接到Claude Code里面去用。

当时看文档,他让我找到Claude Code的settings.json,开始手填各种东西。

图片

base_url、auth_token、model name各种字段。。。

我人直接炸了,真的,感觉这事太蠢了。

之前玩小龙虾的时候也是一样,每次出了新模型想试试,我就直接让它自己去给自己改模型。

结果我相信玩过小龙虾的都知道了,小龙虾GG的最常见的原因,基本就是换模型,经常就是模型切着切着,然后自己就崩了。

简直太呆逼了。。。

直到后面我实在忍无可忍,就去问了下Claude,有没有类似的可以便捷切换Agent产品模型的开源项目,当时还真挖到了。

图片

从那以后,我再也没为切模型这事烦恼过。

回到CC Switch本身。

它是一个桌面App,全平台也就是Windows、Mac、Linux都可以用。

目前一共6个Agent工具,Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw,前几天最新版还把 Hermes也加进来了。基本上你电脑上在跑的这类Agent工具,它都用得上。

图片

因为是个纯粹的开源产品,所以信息啥的还是比较安全的,所有相关的数据都存在你本地的一个SQLite数据库里,路径是~/.cc-switch/cc-switch.db。

包括你添加的供应商配置,全局配置,模型定价之类的等等的东西。

你在用他切换供应商的时候,它会从这个数据库里读出对应配置,再帮你写到各家Agent的配置文件里,从而帮你无痛切模型。

直接进入项目的github,下滑找到Assets。

https://github.com/farion1231/cc-switch/releases

根据自己的系统找到对应的文件进行下载安装。

图片

比如Mac,我们下载好红框中的文件。

图片

直接双击运行,然后在App中我们就能看到这个logo和Claude极其相似,但颜色不一样的东西了。

图片

安装好后,我们主要再来非常非常详细的说说他怎么用。

先来看怎么在Claude Code里接模型。

我们双击打开CC Switch。

在Claude图标下面点击右侧的加号。

图片

它内置了40+家供应商的预设,智谱、MiMo、DeepSeek、千问、Kimi、MiniMax、DouBaoSeed、阶跃等等等等,反正国内主流的他基本都有。

图片

我们这里以GLM为例,选Zhipu GLM,你想用哪个模型就点哪一家就行。

图片

没选供应商的话,所有的配置都是空的。

选好供应商之后,除了API Key,剩下的字段它都帮你预填好了,完全不用你操心。

图片

API Key填进去之后,可以下拉看一眼CC Switch自动给你配的模型版本,不喜欢可以改。

图片

你要是不清楚模型名字的话,就点右上角的获取模型列表。

图片

然后你就可以看到厂商提供的所有可以调用的模型了。

这里需要注意一下,并不是每个供应商都支持查询列表,不支持的话就需要你手动填一下模型名。

图片

模型修改后,你能看到他给你写的配置文件代码是随你同步的。

图片

这里的配置json文件,就是CC Switch会写进Claude code的settings.json里面的内容,但其实我们根本不用管。

图片

从头到尾我们做的就三步,选供应商、填API Key、选模型就行了。

格式啊兼容啊七七八八的问题,你都不用操心。

最后,点击右下角的保存。

图片

这样,我们就能在首页的模型列表看见他了,直接点启用,就能在Claude code里用上了。

图片

其他家的模型,也可以同样的操作加进来。

甚至切换的时候我们都不用再点开主页面。

直接点击桌面右上方的图标,你想换哪个就点哪个,每个工具下面挂着自己的一套供应商列表,互不干扰。

图片

这玩意装上以后有一个很爽的点就是,在Claude Code里面,热切换模型的操作变得无敌简单。

热切换,就是你不用重启终端,不用关掉Claude Code当前会话。

比如你正跑着东西,觉得这个模型不太聪明,你只需要等他回复之后,在菜单栏点一下CC Switch的小图标,选一个别的模型,切完就立刻生效。

下一轮对话直接就是新模型在回你了。

但是注意,你千万不要犯傻,非要在模型正在干活的时候切,那...必然会报下面的错。

图片

这个功能用来做成本管理,贼爽。

因为其实我知道,很多朋友做一些日常任务,还有大项目里的部分小活儿,其实没必要上最贵最强的模型,挂个性价比高的模型,真的又快又便宜。

而做这个成本管理的操作成本,有了他几乎为零了。

但光是切模型这一个功能还只是基操,CC Switch里还做了很多功能。

比如,他还做了个用量追踪,可以快速看到,API key接入的余额,和coding plan的额度。

图片

打开用量配置的操作也不复杂。

在模型列表点击配置用量查询。

图片

打开启用用量查询。

图片

如果你是走的API,这里点击官方,再点击保存配置。

图片

如果你是买的token plan的话。这里我们不点官方,而是点token plan。

选择对应的模型供应商,点击保存配置。

图片

首页列表就能看到实时的消耗或者余额了。

图片

除了用量,CC Switch还提供了更详细的使用统计,可以更直观地看到每个时间段的成本消耗。

图片

能明显的看到,过去一天我的用量高峰,基本都是下了班以后的凌晨,夜深人静,适合Coding。。。

就这个统计,真的非常的好用。

最后一个,也是一个非常实用的功能,特别适合一些使用多个国产模型搭配使用的用户。

就是,有的时候,你可能会睡前给agent派个大活,让他抓紧我睡觉的时候猛猛干活。

但是呢,你可能会遇到额度突然用完,或者魔法不稳定中断的情况,第二天起床一看,活儿压根没干完。

这种事用CC-Switch的本地代理带故障转移就能解决。

CC-Switch可以在你本地起一个代理服务,拦住你的CLI工具发出去的请求,帮你做API格式转换、故障转移和熔断保护。

翻译成人话就是。

你给同一个工具配了三家Claude Code供应商,比如GLM、MiMo、DeepSeek。

某天,某一家突然宕机了,或者额度用完了,或者请求半天没响应。

CC Switch会自动切到下一家继续跑,无痛迁移,不让你的等待变成白等。

详细的操作我也写在这里了。

我们点进左上角的设置。

图片

找到路由服务,先打开本地路由的开关,把本地代理服务跑起来。

图片

然后在应用路由区域启用Claude路由,把Claude Code的请求接到本地代理上。

这里建议也点开在主页面显示本地路由开关。这样我们在主页就能快速打开或关闭路由。

图片

然后我们打开自动故障转移,选择Claude,再点添加供应商,把你要做备用的几家加进队列。

但是这里需要注意,如果你用的是Claude的官方模型,那就别开路由,问题还是有点多的

图片

最后我们可以在首页列表通过拖拽给他们排序。

这样CC Switch会优先列表上面的供应商进行路由,碰到故障就自动往下一家切。每个供应商卡片上会显示一个健康状态徽章。

图片

要关闭的话,直接在主页把这两个按钮关闭就行。

图片

除了上面说的这些,CC Switch还有挺多其他功能可以细挖,比如会话管理。

图片

还有模型配置云同步等等,这里就不一一展开了。

官方提供了一份非常全面的用户手册,写得很详细,地址放在这里,有兴趣的朋友可以去翻翻。

https://github.com/farion1231/cc-switch/blob/main/docs/user-manual/zh/README.md

感谢每一位可以看到这里的朋友。

说实话,这篇文章,我自己读下来是有点枯燥的。

但是作为一篇工具介绍的文章,我也确实写不出什么花来。

这类文章的完读率也一向比较低。

但如果能帮到其中,哪怕一个人。

那我觉得,这篇文章也就有价值了。

希望能对大家有那么一点点用。

剩下的,就交给屏幕前的你自己折腾了。

祝各位,创作愉快。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:卡兹克,tashi

>/ 投稿或爆料,请联系邮箱:wzglyay@virxact.com

LLM Wiki免费开源:AI自动构建个人知识库,支持知识图谱与深度研究

LLM Wiki是基于Karpathy理念的开源桌面应用,自动将文档转化为结构化Wiki知识库。核心功能包括两步链式分析生成、知识图谱可视化、深度研究自动补全缺口、Chrome网页剪藏。支持OpenAI/Anthropic/Ollama等模型,适合研究者、知识工作者构建个人知识体系。需自行配置API密钥。

Tags:

有人把 Karpathy 的知识库构想变成了现实。

前阵子写了一篇关于 Karpathy 的 LLM Wiki 理念的文章,讲的是用 LLM 当知识工程师,帮你持续维护一个 Markdown 知识库。

图片

当时文章里提到 GitHub 上已经有人在基于这个理念做具体实现了。

其中有一个项目卷得特别猛。

叫 LLM Wiki,现在已经 3300 多 Star 了。

图片

不是简单的命令行工具或者 Claude Code Skill,直接做了一个跨平台的桌面应用。

功能做得非常扎实,比 Karpathy 原版 Gist 的设想丰富太多了。

今天就来看看这个开源项目。

01

一句话说清楚这是什么

LLM Wiki 是一个跨平台桌面应用,你把文档丢进去,它自动帮你生成一个结构化的、互相链接的个人 Wiki 知识库。

图片

和传统 RAG 方案不同,它不是每次提问都从原始文档重新检索。

LLM 先把你的文档吃透,生成 Wiki 页面、建立交叉引用、标注矛盾点,后续提问直接在 Wiki 上做。

知识编译一次,持续保持最新。

这个项目就是基于 Karpathy 的 Gist 做的具体实现,但功能远超原版设想,加了知识图谱、深度研究、网页剪藏、向量搜索这些能力。

目前斩获 3300+ Star。

图片
开源地址:https://github.com/nashsu/llm_wiki

02

两步链式思考录入

这是整个项目最核心的设计之一。

原版 Gist 的思路是让 LLM 读文档的同时写 Wiki,一步到位。这个项目把它拆成了两步。

第一步,分析。

LLM 先通读你的文档,提取关键实体、概念、论点,找和已有 Wiki 内容的关联,发现矛盾和张力,然后给出结构化的分析结果。

第二步,生成。

LLM 拿着分析结果,才开始写 Wiki 页面。生成摘要页、实体页、概念页,更新索引,建立交叉引用,标注需要人工判断的事项。

拆成两步的好处是质量明显更高。让 LLM 先想清楚再动手写,比边想边写效果好得多。

一个来源录入进去,可能牵动 10 到 15 个 Wiki 页面的更新。LLM 会自动把新知识和已有知识网络串联起来。

还有个很实用的细节:SHA256 增量缓存。

每个文件在录入前会算哈希,没改过的文件自动跳过,不用每次都让 LLM 重新处理一遍,省 token 也省时间。

持久化队列也做得不错,崩了重启能接着跑,失败自动重试 3 次。活动面板能实时看到每个文件的处理进度。

03

知识图谱可视化

原版 Gist 只提到了用 wikilinks 做交叉引用,基本上就是文本链接。

这个项目直接做了一个完整的知识图谱可视化和关联引擎。

图片

它用四个维度来衡量两个 Wiki 页面之间的关联程度:

直接链接(权重 x3.0):页面之间有 wikilinks 直接引用
来源重叠(权重 x4.0):两个页面引用了同一个原始文档
Adamic-Adar(权重 x1.5):两个页面有共同邻居,共同邻居越稀有关联性越强
类型亲和度(权重 x1.0):同类型页面有额外加分

可视化用的是 sigma.js + ForceAtlas2 布局。

节点颜色可以按页面类型或者社区聚类来着色,节点大小按链接数量缩放。

鼠标悬停的时候,关联节点保持高亮,其他节点变暗,边上还会显示关联分数。

还集成了 Louvain 社区发现算法,能自动识别出知识集群。

你导入了一堆文档之后,它能告诉你你的知识自然形成了哪几个主题聚类,每个聚类的内聚程度如何。

04

图谱洞察,这个功能最有意思

这是原版完全没有的,但我觉得是整个项目最有价值的部分。

系统会自动分析图谱结构,给你两种洞察。

一种是意外关联。

跨社区的、跨类型的、意料之外的连接。比如你分别录入了两批看起来毫不相干的资料,图谱里突然出现了一条连接它们的边。

这种发现往往是认知突破的起点。

另一种是知识缺口。

它会找出几乎没有连接的孤立页面、内部交叉引用太少的稀疏社区、同时连接三个以上集群的桥接节点。

每个缺口旁边都有个深度研究按钮,点一下就能让 LLM 自动去网上搜资料补全。

从发现缺口到补齐缺口,基本全程自动。

图片
图片

05

深度研究,知识库会自己补全自己

当系统发现知识缺口后,LLM 会自动生成搜索关键词,调用 Tavily API 去网上搜索。

搜到的结果 LLM 会综合分析,写成一篇研究页面,直接写进 Wiki。

研究页面还会自动触发录入流程,提取出新的实体和概念,整合到已有的知识网络里。

图片

相当于你的知识库会自己去发现缺口,然后自己上网查资料补全。

触发深度研究的时候,LLM 会先读 overview.md 和 purpose.md 来理解你的知识库是关于什么的,然后生成针对性的搜索词。

不是泛泛的关键词,而是根据你已有知识的上下文来精确定位。搜索前还会弹个确认框,你可以修改搜索主题和搜索词,觉得没问题再开始。

06

Chrome 网页剪藏

这个项目做了一个专门的 Chrome 扩展,用起来挺方便的。

在浏览器里看到什么好文章,点一下图标就搞定。

Readability.js 自动去掉广告、导航栏、侧边栏这些干扰内容,只保留正文,Turndown.js 转成干净的 Markdown。

图片

剪藏的内容会自动发送到本地应用,触发录入流程,直接变成 Wiki 的一部分。

支持多项目选择,如果你同时维护好几个知识库,剪藏的时候可以选存到哪个。

即使应用没开着,扩展也能预览提取的内容,等你打开应用后再自动同步。

检索也做了不少优化

Karpathy 原版方案在中等规模下靠索引文件就够了,但知识库一大就不够用了。

LLM Wiki 搞了一套多阶段检索管线。

先分词搜索,中文做 CJK 二元组分词。

然后可选开向量语义搜索,通过 LanceDB 做近似最近邻检索,即使没有关键词重叠也能找到语义相关的页面。

再把搜索结果当种子节点,用关联度模型做 2 跳遍历发现更深层的关联。

上下文窗口可以配置,从 4K 到 1M tokens 都行。60% 给 Wiki 页面,20% 聊天历史,5% 索引,15% 系统提示。

官方说开向量搜索后整体召回率从 58.2% 提升到了 71.4%。

07

几个眼前一亮的细节

除了上面这些大模块,还有几个细节挺好的。

Purpose.md

这个项目加了 purpose.md,放目标、关键问题、研究范围。

LLM 每次录入和查询都会参考这个文件,你的知识库就有了一个明确的方向,不是漫无目的地堆砌。这个区分很妙。

异步审核

LLM 录入过程中遇到拿不准的事情,会标记到审核队列里,不阻塞主流程。

你什么时候有空什么时候看,每个审核项带着预生成的操作选项和搜索查询。

删一个资料文件,系统自动找它的 Wiki 摘要页、引用了它的实体页面、索引条目、失效链接,全部清理干净。

被多个资料共享的实体页面不会被误删,只会从 sources 列表里移除。

多格式支持

PDF、DOCX、PPTX、Excel、图片、音视频都能导入。PDF 用 Rust 解析,性能很好。

完全兼容 Obsidian。

生成的 Wiki 目录就是标准的 Obsidian Vault,自动生成 .obsidian/ 配置。Obsidian 当查看器,LLM Wiki 当编辑器,两个工具各司其职。

08

怎么上手

GitHub Releases 页面有预编译安装包:

图片
    链接:https://github.com/nashsu/llm_wiki/releases/tag/v0.3.13

    装好之后的流程:

    ① 启动应用,创建新项目,有场景模板可选,比如研究、阅读、个人成长、商业、通用
    ② 设置里配置大模型,支持 OpenAI、Anthropic、Google、Ollama,也支持自定义接口
    ③ 导入文档,PDF、Word、Markdown、Excel 都行
    ④ 看着 LLM 自动构建 Wiki 页面
    ⑤ 用 Chat 提问,浏览知识图谱

    Chrome 扩展的安装也很简单。

    打开 chrome://extensions,开启开发者模式,加载已解压的扩展程序,选择项目里的 extension/ 目录就行。

    上次写那篇文章的时候,Karpathy 的理念还停留在抽象的方法论层面。

    当时虽然已经有人在 GitHub 上做实现了,但大多是命令行工具或者 Claude Code 的 Skill,用起来还是有一定门槛。

    这个项目直接做成了一个桌面应用,降低了使用门槛。普通用户也能上手,不需要折腾命令行和 Agent 配置。

    而且它不是简单地照搬原版 Gist 的思路,在知识图谱、深度研究、网页剪藏、向量搜索这些方面都有实质性的扩展。

    迭代速很快。

    这也印证了 Karpathy 自己说的:在 Agent 时代,你分享思路,别人让各自的 Agent 去定制化搭建就行了。

    知识的复利增长,这个项目让 Karpathy 的构想变成了现实。

    09

    点击下方卡片,关注逛逛 GitHub

    这个公众号历史发布过很多有趣的开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:逛逛 GitHub ,后台对话聊天就行了:

    图片

    开源神器CC Switch一键切换所有Agent模型,50K星标免费工具

    CC Switch是GitHub上50K星标的开源桌面应用,支持Claude Code、OpenClaw等6种Agent工具一键切换模型。无需手动修改配置文件,只需选供应商、填API Key、选模型三步即可。提供热切换、用量追踪、故障转移等功能,适合开发者高效管理多模型调用。全平...