2025年8月4日星期一

GLM-4。5贴脸开大——开源新模型搭配Claude Code直接起飞


智谱 Bigmodel 重磅放出国内最顶的开源模型,

GLM-4.5

在整个测试过程 GLM 中不断地能让我感到惊喜,也让我看到的国产模型的希望,

总体上它简直就是贴着 K2 和 Qwen3 的脸开大,

GLM 几乎全方位胜出,真的是又快又狠又便宜!!

高速版本实测生成速度最高去到100 tokens/秒,

速度秒了 K2和 Qwen的同时,

代码质量竟然还不错,还能兼容 Claude Code,

模型最大生成长度,默认65536最大可以去到98304,

简直太疯狂,而价格竟然只是白菜价:

输入只需要百万 token 0.8元,输出只需要 2 元。

比 K2 足足低了 5 倍,太夸张了,而且还开源,开源。

根据测试下来综合平均分,GLM-4.5 取得了全球模型第三、国产模型,开源模型第一

Image

图片

先看看审美能力,我用两轮对话就做成的【山姆奥特曼的简历网站】

图片


图片

这里同一套提示词横向对比下 K2 的效果,左边是 GLM,右边是 K2
图片
图片
图片
图片

可以看到GLM的艺术感更强,设计能力明显更好,

目前它的可视化能力和交互设计是目前国内模型最顶的,图像的选择做到多样化,选图选得也恰到好处。

配合 claude code 食用非常绝,文章后面我会有详细接入 claude code 的教程。

全程就两轮对话,第一轮其实已经做出来了,第二轮我只是让他添加更深度内容,图表展示这些都是它的代码能力支撑的。

图片


顺便提一嘴,使用GLM-4.5+claude 完全解决了封禁的问题,而且这套组合几乎覆盖所有工作任务,

联网+深度思考+MCP+超强性价比,GLM可以说打遍天下。

你可能会担心耗token大不敢用的问题,而智谱贴心地为大伙准备了一个超级疯狂大礼包:

50元拿下1 万亿 token,50元拿下1 万亿 token!

直接畅玩Claude Code!!

链接可直达:

https://bigmodel.cn/tokenspropay?productIds=product-38cebb

图片


接下来试试做一个小游戏看看它的编排任务能力和审美在不在线,

不知道你们有没有玩过一个很火的小游戏,通过鼠标移动来找到看不见的牛,接下来我就用 GLM 来做一个【找猫咪】的游戏:


图片
图片


一轮对话不到半分钟就出来了 demo:

图片


- 功能全部实现,包括音频和距离的关系

- ui 配色一点都不土,还附带背景粒子上升的美化效果

- 自带小设计,比如鼠标的带色光圈,右上角的提示符号的变化


接下来我让GLM 调用 MCP(context7)去熟读 Three.js的文档,目的是让他做出一个赛博朋克的射击小游戏:

图片

经过一轮对话就做出了这么一个敌人自动跟踪主角的3D射击小游戏:

图片


整体上可以说是非常的令人惊喜。

这里还有一些官方制作的 demo,

GLM 制作的微博

https://v0rb06rruyf0-deploy.space.z.ai/


GLM 制作的B站

https://n0dba6ce0e60-deploy.space.z.ai/


GLM 制作的小游戏

https://chat.z.ai/space/b0yb2613ybp0-art



然后再测测它的思考推理能力,

我打算让他做一个聊天机器人的页面,左侧可以选择打开/关闭深度思考能力和联网能力,搭建一个前端让我在前端里面测试它的推理能力:

二轮对话  GLM 就敲定一个兼具功能开关+历史记录的前端界面:

图片

测试逻辑推理能力:

计算7米长甘蔗通过2米高、1米宽的门所需的最小倾斜角度:

图片

GLM 的推理速度很快,几乎达到秒级输出,得到答案是73.4度

而用我又问了一遍 o3,得出的答案相同,而 o3 用了差不多 40秒,GLM 只用了 15 秒。

图片
图片


测试一下写作能力:

写一篇穿越清朝的爽文,2000 字

图片

GLM 会先对结构框架有自己的理解和把控,然后才会这个正式开始写作:

"刀下留人——!!!"一声嘶吼,完全不受控制地从我喉咙深处爆发出来,带着一种连我自己都感到陌生的、穿透一切的决绝力量,瞬间压过了刑场上所有的悲泣和喧哗!扬起的鬼头刀,硬生生地悬停在半空!刽子手那双布满血丝的眼睛,惊愕地瞪着我,仿佛在看一个从地狱里爬出来的恶鬼。监斩官猛地站起身,官帽下的脸因暴怒而扭曲:"大胆死囚!临刑扰乱法场,罪加一等!行刑!快!""慢着!"我猛地抬起头,目光如炬,死死钉在监斩官身后不远处那个身着二品孔雀补服、面皮白净、正微微眯眼看着我的身影上——户部尚书张德昌!我的声音因为激动而微微颤抖,却异常清晰,每一个字都像冰雹砸在青石板上,"冤枉!天大的冤枉!"
反正我感觉写打普通的网文应该没问题,
而且我默认输出设置,一次性能输出1 万 2 千字的小说毫无压力。
图片

现在直接在官网平台就可以直接玩,

https://chatglm.cn上就可以进行对话,

比如你要交一个关于巴菲特生平的一个展示 ppt作业,

官方就已经有一个 PPT 模式可以用:

图片

图片


然后 GLM 就会自动去搜索全网的资料,这个等于内置了一个 manus 了,很强,界面还有 artifact 的功能,直接可以预览代码,很虚浮,联网还能自动配个图,PPT 神器:

图片
图片
图片
图片
图片


最终效果也是非常不错,字体的细节也到位,可以直接拿去讲了。


关于 Claude code 的具体接入方法很简单,

第一步:安装官方的claude code

npm install -g @anthropic-ai/claude-code

第二步:写入 GLM 的接口和 api

export ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropicexport ANTHROPIC_AUTH_TOKEN="your bigmodel API keys"

GLM 的 api 在Bigmodel官网直接注册申请就行,没有其他要求

https://bigmodel.cn/

图片

第三步:输入 claude 开启 claude code

Claude
看到这里的接口变成bigmodel即可(也就是 GLM 官方平台)

https://open.bigmodel.cn/api/anthropic

图片

后面就可以愉快地食用了。


总体来说,

GLM4.5的速度是真的很快,最高可以 100token/每秒,

相比Kimi 和 Qwen 有一个断层的差距,

代码质量也不输 claude,价格全球都是独一档的优惠,

真正的做到物美价廉。


开发者建议用 api+claude code 食用,

爱好者可以直接在 Bigmodel上面通过对话的方式直接体验:

https://chatglm.cn

https://chat.z.ai/


具体详细教程:
国内用户:
https://docs.bigmodel.cn/cn/guide/develop/claude
海外用户:
https://docs.z.ai/scenario-example/develop-tools/claude
体验地址:
https://chat.z.ai/
https://chatglm.cn
Github 仓库:
https://github.com/zai-org/GLM-4.5
模型仓库:
HuggingFace:
https://huggingface.co/collections/zai-org/glm-45-687c621d34bda8c9e4bf503b
ModelScope:
https://modelscope.cn/collections/GLM-45-b8693e2a08984f

没有评论:

发表评论

当ChatGPT也开始逐渐成为微信的模样。

他要成为一座通往答案的桥 今天凌晨,坐在电脑前百无聊赖的刷着X。 看看有没有GPT-5的消息。 结果,1点钟的时候,GPT-5没刷到,刷到了OpenAI发的一条Blog。 看推文,我以为是ChatGPT又搞了什么幺蛾子,更新了什么休息提醒模式,学王者荣耀的防沉迷。 底下评论非...