2024年12月9日星期一

再也不怕封号,MCP 不再依赖 Claude


之前介绍 Claude 的 MCP 项目,
把大模型直接拎包入住在需要的文件数据里面直接操作和管理,用起来非常高效和方便。
但有几个问题:
- 需要 Claude 的客户端,往往容易被封号
- LLM 搬家入住有数据隐私问题

今天分享一个用其他 LLMs 使用 MCP 的项目,
包括本地ollma 和 Openai 等等。
项目还是以数据库为例子,它主要的思路:
用的还是官方的mcp-server-sqlite,
而不同的是它用 ollma 或者 Openai 替代了 Claude 的能力。

像这样我可以查询数据库里面的任何内容信息,相当于让 openai 拎包入住。

同时还能让他创建新的表,比如天气情况:

细心的话你会看到这里有很多个工具的调用,
你可能会问,工具怎么来,要自己做吗?
那也太不智能了,工具已经被定义 sqlite-mcp 的人写好放在里面了,而 sqlite-mcp 可以被任何人使用,这就是 MCP 的厉害。
这也是需要用大模型的目的,因为它能这里判断是否使用工具 tool以及使用哪一种工具 。
这个项目可以有很多扩展的空间,比如实现不同的服务器类型,支持多种 llms,添加新的工具和功能等等。
https://github.com/chrishayuk/mcp-cli
更多及时资讯和 AI 技巧可以加入:

没有评论:

发表评论

豆包模型上新,prompt新玩法,完整测评来了,任务使用更简单了

最近,豆包模型上新了,作为重度使用者,第一时间测试了一番,模型效果确实提升不少      最近各家的大模型不断出新,笔者也测试了不少,之前有介绍过几款新的大模型,效果也都可圈可点。众所周知大模型的性能优劣其实和使用人的方法有很大关系,说的更精确一点就是和你写的提示词写的好坏直...