SageAttention最新的2.2版本对comfyUI生图加速效果非常明显,可以提升视频生图速度40%,我
SageAttention最新的2.2版本对comfyUI生图加速效果非常明显,可以提升视频生图速度40%,我自己实测也达到30%。今天跟大家详细讲一下SageAttention2.2版本的安装部署方法。
文章中涉及到sageattention+cuda+torch+xformers+triton的安装方法。
首先,因为comfyUI整合包中往往会自带一个python,如果你的系统内也安装了python,建议卸载掉,只保留comfyUI中的python。
例如我的秋叶版python路径为:E:\ComfyUI-aki-v1.7\python
后面的命令都是依于这个路径的,你们只需要替换成你们自己的python路径即可。
下面开始SageAttention 2.2 详细的安装方法。
https://developer.nvidia.com/cuda-12-8-0-download-archive
E:\ComfyUI-aki-v1.7>python -m pip uninstall torch torchaudio torchvision -y
https://pytorch.org/-get-started/locally/
E:\ComfyUI-aki-v1.7>pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128
链接:
https://github.com/woct0rdho/SageAttention/releases
目前sageattention的版本只有2.2可选,我们刚刚安装的CUDA是2.71的,本地python是3.11的,所以我们只能选择的版本只有一个:
"sageattention-2.2.0+cu128torch2.7.1-cp311-cp311-win_amd64.whl"
把这个版本下载好的文件放到comfyui要目录下面(其实放哪里无所谓,放在这里只是为了安装时方便,安装完就可以删掉了。)
安装指令:
E:\ComfyUI-aki-v1.7>python\python.exe -m pip install -U "sageattention-2.2.0+cu128torch2.7.1-cp311-cp311-win_amd64.whl"
再次检查sageattention版本:
命令:
E:\ComfyUI-aki-v1.7>python\python.exe -m pip list | findstr sage
四、升级xformers
此时sageattention已经安装好了,但重启秋叶后发生报错了,报错提示xformers不兼容。
具体来说,我之前的xformers
是为 PyTorch 2.5.1+cu124 构建的,而现在环境中安装的是 PyTorch 2.7.1+cu128。这导致了 xformers
的 C++/CUDA 扩展无法加载。
1、卸载旧的 xformers
命令:E:\ComfyUI-aki-v1.7\python> python.exe -m pip uninstall xformers
卸载成功
2、安装适配 PyTorch 2.7.1 的 xformers 版本
命令:
E:\ComfyUI-aki-v1.7\python>python.exe -m pip install --no-cache-dir --pre xformers
验证xformer版本:
命令:
E:\ComfyUI-aki-v1.7\python>python.exe -m pip show xformers
E:\ComfyUI-aki-v1.7\python>python.exe -m pip show torch
此时重启秋叶,运行fusionX工作流进行测试时提示错误:
Triton only support CUDA 10.0 or higher, but got CUDA version: 12.8
1、更新 Triton 到最新版本
下载链接:
https://github.com/woct0rdho/triton-windows/releases?page=2
我的本地python是3.11版的,所以选择cp311版的。
2、先卸载老版本
命令:
E:\ComfyUI-aki-v1.7\python>python.exe -m pip uninstall triton
把刚刚下载的triton文件粘贴到python文件夹内(为了安装方便,安装完可以删掉)。
E:\ComfyUI-aki-v1.7\python>python.exe -m pip install triton-3.2.0-cp311-cp311-win_amd64.whl
现在triton安装成功了。
六、生图速度测试
1、sageattention模式
我们拿fusionX的图生视频工作流来做测试,先采用sageattention模式。
由于第一次跑图需要加载模型,时间要多一些(233.46秒),所以这次不能作为测试依据。
模型完全模型加载好后,进行第二次测试,一共耗时193.59秒。
看下图生视频效果(这个工作流的地址我会放在文末)。
2、sdpa模式
然后再切换到sdpa模式,其他所有参数不变,这次一共耗时273.84秒。
经过计算,sageattention模式比sdpa模式节省80.25秒,速度提升29.31%。
文中用到的工作流:
https://www.runninghub.cn/post/1936801128262832130
往期文章:
只需3秒出图!flux Kontext秒出图谁不爱?Nunchaku最详细的安装部署教程,看这篇就够了!
史诗级电影镜头,堪比闭源模型,wan2.1_14B_FusionX,6步就可生成高质量AI视频,完全开源
END
感谢您的阅读,麻烦点个赞+在看吧!
没有评论:
发表评论