智谱 Bigmodel 重磅放出国内最顶的开源模型,
GLM-4.5
在整个测试过程 GLM 中不断地能让我感到惊喜,也让我看到的国产模型的希望,
总体上它简直就是贴着 K2 和 Qwen3 的脸开大,
GLM 几乎全方位胜出,真的是又快又狠又便宜!!
高速版本实测生成速度最高去到100 tokens/秒,
速度秒了 K2和 Qwen的同时,
代码质量竟然还不错,还能兼容 Claude Code,
模型最大生成长度,默认65536最大可以去到98304,
简直太疯狂,而价格竟然只是白菜价:
输入只需要百万 token 0.8元,输出只需要 2 元。
比 K2 足足低了 5 倍,太夸张了,而且还开源,开源。
根据测试下来综合平均分,GLM-4.5 取得了全球模型第三、国产模型第一,开源模型第一。
先看看审美能力,我用两轮对话就做成的【山姆奥特曼的简历网站】
可以看到GLM的艺术感更强,设计能力明显更好,
目前它的可视化能力和交互设计是目前国内模型最顶的,图像的选择做到多样化,选图选得也恰到好处。
配合 claude code 食用非常绝,文章后面我会有详细接入 claude code 的教程。
全程就两轮对话,第一轮其实已经做出来了,第二轮我只是让他添加更深度内容,图表展示这些都是它的代码能力支撑的。
顺便提一嘴,使用GLM-4.5+claude 完全解决了封禁的问题,而且这套组合几乎覆盖所有工作任务,
联网+深度思考+MCP+超强性价比,GLM可以说打遍天下。
你可能会担心耗token大不敢用的问题,而智谱贴心地为大伙准备了一个超级疯狂大礼包:
50元拿下1 万亿 token,50元拿下1 万亿 token!
直接畅玩Claude Code!!
链接可直达:
https://bigmodel.cn/tokenspropay?productIds=product-38cebb
接下来试试做一个小游戏看看它的编排任务能力和审美在不在线,
不知道你们有没有玩过一个很火的小游戏,通过鼠标移动来找到看不见的牛,接下来我就用 GLM 来做一个【找猫咪】的游戏:
一轮对话不到半分钟就出来了 demo:
- 功能全部实现,包括音频和距离的关系
- ui 配色一点都不土,还附带背景粒子上升的美化效果
- 自带小设计,比如鼠标的带色光圈,右上角的提示符号的变化
接下来我让GLM 调用 MCP(context7)去熟读 Three.js的文档,目的是让他做出一个赛博朋克的射击小游戏:
经过一轮对话就做出了这么一个敌人自动跟踪主角的3D射击小游戏:
整体上可以说是非常的令人惊喜。
这里还有一些官方制作的 demo,
https://v0rb06rruyf0-deploy.space.z.ai/ | ||
https://n0dba6ce0e60-deploy.space.z.ai/ | ||
https://chat.z.ai/space/b0yb2613ybp0-art |
然后再测测它的思考推理能力,
我打算让他做一个聊天机器人的页面,左侧可以选择打开/关闭深度思考能力和联网能力,搭建一个前端让我在前端里面测试它的推理能力:
二轮对话 GLM 就敲定一个兼具功能开关+历史记录的前端界面:
测试逻辑推理能力:
计算7米长甘蔗通过2米高、1米宽的门所需的最小倾斜角度:
GLM 的推理速度很快,几乎达到秒级输出,得到答案是73.4度
而用我又问了一遍 o3,得出的答案相同,而 o3 用了差不多 40秒,GLM 只用了 15 秒。
测试一下写作能力:
写一篇穿越清朝的爽文,2000 字
GLM 会先对结构框架有自己的理解和把控,然后才会这个正式开始写作:
"刀下留人——!!!"一声嘶吼,完全不受控制地从我喉咙深处爆发出来,带着一种连我自己都感到陌生的、穿透一切的决绝力量,瞬间压过了刑场上所有的悲泣和喧哗!扬起的鬼头刀,硬生生地悬停在半空!
刽子手那双布满血丝的眼睛,惊愕地瞪着我,仿佛在看一个从地狱里爬出来的恶鬼。
监斩官猛地站起身,官帽下的脸因暴怒而扭曲:"大胆死囚!临刑扰乱法场,罪加一等!行刑!快!""慢着!"我猛地抬起头,目光如炬,死死钉在监斩官身后不远处那个身着二品孔雀补服、面皮白净、正微微眯眼看着我的身影上——户部尚书张德昌!
我的声音因为激动而微微颤抖,却异常清晰,每一个字都像冰雹砸在青石板上,"冤枉!天大的冤枉!"
现在直接在官网平台就可以直接玩,
在https://chatglm.cn上就可以进行对话,
比如你要交一个关于巴菲特生平的一个展示 ppt作业,
官方就已经有一个 PPT 模式可以用:
然后 GLM 就会自动去搜索全网的资料,这个等于内置了一个 manus 了,很强,界面还有 artifact 的功能,直接可以预览代码,很虚浮,联网还能自动配个图,PPT 神器:
最终效果也是非常不错,字体的细节也到位,可以直接拿去讲了。
关于 Claude code 的具体接入方法很简单,
第一步:安装官方的claude code
npm install -g @anthropic-ai/claude-code
第二步:写入 GLM 的接口和 api
export ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic
export ANTHROPIC_AUTH_TOKEN="your bigmodel API keys"
GLM 的 api 在Bigmodel官网直接注册申请就行,没有其他要求
https://bigmodel.cn/
第三步:输入 claude 开启 claude code
Claude
https://open.bigmodel.cn/api/anthropic
后面就可以愉快地食用了。
总体来说,
GLM4.5的速度是真的很快,最高可以 100token/每秒,
相比Kimi 和 Qwen 有一个断层的差距,
代码质量也不输 claude,价格全球都是独一档的优惠,
真正的做到物美价廉。
开发者建议用 api+claude code 食用,
爱好者可以直接在 Bigmodel上面通过对话的方式直接体验:
https://chatglm.cn
https://chat.z.ai/
没有评论:
发表评论