2025年7月8日星期二

只需3秒出图!flux Kontext秒出图谁不爱?Nunchaku最详细的安装部署教程,看这篇就够了!

Nunchaku最详细部署教程,看这篇就够了!

Nunchaku可以让 flux 模型8步就出图,最快时间只要3秒,而且目前已经支持支持Kontext模型。但它的安装方式比较麻烦,很多人安装老是出错,今天我出一期详细的安装部署教程,Nunchaku安装看这篇就够了!
一、首款安装节点

安装nunchaku节点并升级到最新版本

节点链接:

https://github.com/mit-han-lab/ComfyUI-nunchaku

节点的具体安装方法可以参见文章:

让ComfyUI无所不能的秘密:如何自定义节点!AI绘画,ComfyUI教程,安装自定义节点

当然了,最简单的节点安装方法,是通过管理器搜索节点名字进行安装

图片
二、环境安装
1、安装CUDA
首先,Nunchaku目前只支持NVIDIA显卡,建议先更新CUDA,CUDA的安装方法可以看这篇文章:
明明买了贵的显卡AI绘图还是慢,GUDA+cuDNN+pytorch安装,让你的comfyUI起飞!
2、PyTorch的版本不能小于2.5
PyTorch版本查看方法:在用秋叶启动器启运的时候,控制台可以看到PyTorch的版本号,我的版本是2.51。
同时记下自己的python版本号和路径,后面要用到
我的python版本号是3.11.9,路径是E:\ComfyUI-aki-v1.7\python
图片
python的版本号也可以通过命令行查看
在命令行中输入刚刚记下的python路径,后面加上" --version",按回车可以查看python版本
完整命令:
"E:\ComfyUI-aki-v1.7\python\python.exe --version"
python路径后面加上"  -m pip show torch" 可以查看torch版本
完整命令:
"E:\ComfyUI-aki-v1.7\python\python.exe  -m pip show torch"
图片
3、升级PyTorch
如果你的PyTorch的版本小于2.5,就需要升级了
升级方法:到秋叶启动器里按下图找到Pytorch安装,选择强制重装。
建议版本不要选择太高,先从最低版本开始升级。
图片
4、下载轮子
链接:

https://huggingface.co/mit-han-lab/nunchaku/tree/main

版本选择:这里很多人都会选错
目前nunchaku最新版是0.3.1,我的torch版本是2.51,python版本是3.11.9,系统是windows系统,所以我要下载的版本应该是0.3.1+torch2.5-cp311-cp311-win这个版本。
图片
将下载好的文件粘贴到E:\ComfyUI-aki-v1.7\python路径下面
图片
来到pyhon的路径:E:\ComfyUI-aki-v1.7\python\,地址栏输入cmd,调出命令行窗口
图片
在命令行下面输入指令进行安装:

python.exe -m pip install nunchaku-0.3.1+torch2.5-cp311-cp311-win_amd64.whl

图片

安装成功后关掉窗口即可,刚刚下载的文件可以删了

5、轮子安装失败怎么办
如果已经安装了nunchaku的节点,进入nunchaku目录下的示例工作流节文件夹:
custom_nodes\ComfyUI-nunchaku\example_workflows
打开第一个安装轮子工作流:install_wheel.json
图片
打开工作流后,在红框处选择通过什么方式下载轮子,如果你可以科学上网,就用huugface下载,如果不能科学上网,就选ModeScope下载。
同时记得选择最新的0.31版本,然后点击运行,它就会自动下载轮子。
图片
点击运行后,它会自动根据我电脑里torch版本下载合适的轮子。
图片
从运行结果也能看出来,这个工作流自动安装的nunchaku版本是0.3.1+torch2.5-cp311-cp311-win,和我前面选择的是同一个版本。
图片
三、模型下载 

1、模型选择和模型下载

50系显卡选择nvfp4版本模型,50系以下的显卡选择int4版本模型

模型链接:

https://huggingface.co/collections/mit-han-lab/svdquant-67493c2c2e62a1fc6e93f45c

图片
下面以svdq-int4-flux.1-dev模型为例,我们需要把该页面的所有文件全部下载下来
链接:

https://huggingface.co/mit-han-lab/svdq-int4-flux.1-dev/tree/main

图片
下载好后模型放置位置:
ComfyUI\models\diffusion_models
图片
此时打开示例工作流:nunchaku-flux.1-dev.json
工作流中默认只需要8步,我们先把本地没有的两个加速lora先给禁用掉或删掉。
图片
运行工作流看下速度
默认8步的出图质量还算不错,主要是速度非常快,第一次运行生图速度12.67秒,速度非常快,第二次运行速度4.29秒,更快了。
这个速度已经非常nice了。
图片
2、模型合并
目前下载下来的模型是一个文件夹,还不是一个完整的模型文件,我们可以通过官方提供的示例工作流对模型文件夹进行合并,
打开工作流:merge_safetensors.json
图片
工作流打开后选择你刚刚下载的模型版本,点击运行,它会把刚刚的模型文件夹合并为一个safetensors文件。
合并完成后,就把刚刚的模型文件夹删了,以节省磁盘空间。
图片
合并完模型后,打开示例文件夹内的nunchaku-flux.1-dev.json工作流,
替换成刚刚合并的模型就可以了。
图片
3、Nunchaku官方T5编码器
目前Nunchaku官方还出了一 个专用的T5编码器,用它能够进一步提升生图速度,
编码器名称:
awq-int4-flux.1-t5xxl.safetensors
图片
下载地址:

https://huggingface.co/mit-han-lab/nunchaku-t5/tree/main

模型放置路径:models\text_encoders
把编码器换成专用的T5编码器后,生图竟然糊了,我们将默认步数从5提到20或更高再试一下。
图片
不过经过我几次测试,虽然换了T5编码器后将步数提升到20后,出图速度跑进了3秒,但出的图还是有糊的。
这可能是nunchaku出的编码器不太稳定造成的,期待以后再更新吧,所以我又换回了flux原生的T5编码器。
图片
四、Kontext模型
目前最新版的nunchaku已经支持 kontext模型了,而且提供的是一个完整的safetensors文件,不再是一个文件夹。
链接:

https://huggingface.co/mit-han-lab/nunchaku-flux.1-kontext-dev/tree/main

图片
模型放置路径:
ComfyUI\models\diffusion_models
从示例文件夹中加载工作流:nunchaku-flux.1-kontext-dev.json
图片

记得将模型换成你刚刚下载的模型

图片
生图速度也明显提升了,第一次生图时间32.21秒,第二次只有20秒,比正常出图速度明显提升。
图片
总结:
nunchaku确实可以数倍提升生图速度,但模型的质量可能比flux官方模型还差点意思,如果只求速度不在乎质量有瑕疵可以用它。
用同样的提示词,下面左图为nunchaku出的图,右图为 flux 官方模型出的图,可以看出nunchaku的出图质量还是差点意思的
不过第二次出图时,nunchaku9.86秒,flux官模29.29秒,速度提升了3倍!
图片
另外nunchaku提供的 T5编码器好像不太稳定,不建议使用。
目前nunchaku还提供了很多很多其他功能的官方工作流(需要下载相应的模型),大家有兴趣可以自己去试一下。

在线工作流:

unchaku-flux.1-kontext-dev

https://www.runninghub.cn/post/1942473442157342721
nunchaku-flux.1-dev:

https://www.runninghub.cn/post/1942467291403464705


往期文章:
90%的工作流都可以扔掉了,AI绘画变得如此简单,万能P图模型kontext高级操作技巧
一个节点让你的 kontext更听话,更容易理解你的提示词,成功率直线飙升,AI绘画
ComfyUI最强反推插件 JoyCaption3 ,批量反推打标就是快

END




感谢您的阅读,麻烦点个赞+在看吧!

没有评论:

发表评论

腾讯3D生成模型上新!线稿可变“艺术级”3D模型,鹅厂内部设计师也在用

AI已经学会拓扑了 克雷西 发自 凹非寺 量子位 | 公众号 QbitAI 腾讯混元3D模型,又又又上新了! 这次带来的是艺术级3D生成模型 Hunyuan3D-PolyGen ,支持生成面数上万的复杂几何模型。 而且这个模型可 以把3D模型变成资产 ,鹅厂自己的游戏开发工作...