2025年7月9日星期三

ComfyUI+SageAttention 2。2 让视频生成提速40%,最详细的安装部署教程,看这篇就够了!

SageAttention最新的2.2版本对comfyUI生图加速效果非常明显,可以提升视频生图速度40%,我

SageAttention最新的2.2版本对comfyUI生图加速效果非常明显,可以提升视频生图速度40%,我自己实测也达到30%。今天跟大家详细讲一下SageAttention2.2版本的安装部署方法。

文章中涉及到sageattention+cuda+torch+xformers+triton的安装方法。

首先,因为comfyUI整合包中往往会自带一个python,如果你的系统内也安装了python,建议卸载掉,只保留comfyUI中的python。

例如我的秋叶版python路径为:E:\ComfyUI-aki-v1.7\python

后面的命令都是依于这个路径的,你们只需要替换成你们自己的python路径即可。

图片

下面开始SageAttention 2.2 详细的安装方法。

一、安装CUDA12.8
1、检查CUDA版本
SageAttention 2.2要求CUDA的版本要12.8以上,我们要先要查一下CUDA的版本,如果版本过低,需要升级CUDA。
命令:E:\ComfyUI-aki-v1.7\python>nvcc --version
图片
2、升级CUDA
如果你的CUDA版本过低,可以通过下面的链接下载CUDA12.8版
链接:

https://developer.nvidia.com/cuda-12-8-0-download-archive

图片
下载好后,无脑点击下一步进行安装即可。
图片
更多CUDA安装方法和注意事项可以参见文章:
明明买了贵的显卡AI绘图还是慢,CUDA+cuDNN+pytorch安装,让你的comfyUI起飞!
3、CUDA的多版本选择
首先,CUDA是可以多版本共用的
打开设置-->系统-->系统信息-->高级设置-->环境变更
图片
在环境变量里可以看到我的电脑里安装了两个CUDA,一个是我之前装的12.1,一个是刚刚装的12.8。
图片
关键还要看"CUDA_PATH"这一行,这里显示的是v12.8,那么系统用的版本就是12.8。
更改CUDA版本:
如果你想改为12.1版本,可以双击它直接修改成12.1。
图片
另外还有一点重要的地方:
如果你想将CUDA改成12.1,还找到Path这一行,双击打开,把"12.1\bin"和"12.1\libnvvp"这两行移到最上面。
因为我们需要用12.8版,所以就不更改了。
图片
再次检查当前的CUDA版本
最后再通过命令行窗口输入"nvcc -version"窗口查看当前CUDA的版本。
命令:E:\ComfyUI-aki-v1.7\python>nvcc --version
图片
二、torch版本
torch版本要求要在2.7.1以上
1、先查看当前torch版本
进入comfyui目录(E:\ComfyUI-aki-v1.7),在地址栏输入CMD,调出命令行
图片
输入命令:"E:\ComfyUI-aki-v1.7>pip list | findstr torch"查看当前torch版本,我当前版本是2.5.1,这个版本太低,需要先卸载
图片
2、卸载低版本torch
继续在命令行输入指令,卸载toruch及其相关组件
卸载命令:

E:\ComfyUI-aki-v1.7>python -m pip uninstall torch torchaudio torchvision -y

图片
3、安装新版torch
下载链接:

https://pytorch.org/-get-started/locally/

(1)我们需要安装2.7.1版,选择对应的CUDA12.8版本,然后复制最底面的命令
图片
(2)回到命令行窗口,粘贴刚刚的命令,然后回车
命令:
E:\ComfyUI-aki-v1.7>pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128
图片
新版torch正在安装...
图片
这时顺便查看一下comfyui中的python的版本号,后面要用。
comfyui中python的路径是E:\ComfyUI-aki-v1.7\python\python.exe
图片
命令是:
E:\ComfyUI-aki-v1.7\python>python.exe --version
图片
你也可以在秋叶启动界面中查看当前python的版本
我的当前版本是3.11.9
图片
三、安装sageattention 
在安装前要先确认sageattention的当前版本:
在命令行中输入命令:
E:\ComfyUI-aki-v1.7>pip list | findstr sage
当前sageattention版本是1.0.6
图片
1、sageattention版本选择

链接:

https://github.com/woct0rdho/SageAttention/releases

目前sageattention的版本只有2.2可选,我们刚刚安装的CUDA是2.71的,本地python是3.11的,所以我们只能选择的版本只有一个:

"sageattention-2.2.0+cu128torch2.7.1-cp311-cp311-win_amd64.whl"

图片

把这个版本下载好的文件放到comfyui要目录下面(其实放哪里无所谓,放在这里只是为了安装时方便,安装完就可以删掉了。)

图片

安装指令:

E:\ComfyUI-aki-v1.7>python\python.exe -m pip install -U "sageattention-2.2.0+cu128torch2.7.1-cp311-cp311-win_amd64.whl"

图片

再次检查sageattention版本:

命令:
E:\ComfyUI-aki-v1.7>python\python.exe -m pip list | findstr sage

图片

四、升级xformers

此时sageattention已经安装好了,但重启秋叶后发生报错了,报错提示xformers不兼容。

具体来说,我之前的xformers 是为 PyTorch 2.5.1+cu124 构建的,而现在环境中安装的是 PyTorch 2.7.1+cu128。这导致了 xformers 的 C++/CUDA 扩展无法加载。

图片

1、卸载旧的 xformers

命令:E:\ComfyUI-aki-v1.7\python> python.exe -m pip uninstall xformers

卸载成功

图片

2、安装适配 PyTorch 2.7.1 的 xformers 版本

命令:

E:\ComfyUI-aki-v1.7\python>python.exe -m pip install --no-cache-dir --pre xformers

图片

验证xformer版本:

命令:

E:\ComfyUI-aki-v1.7\python>python.exe -m pip show xformers

现在我的xformers版本已经升级为:0.0.32
验证torch版本:
命令:

E:\ComfyUI-aki-v1.7\python>python.exe -m pip show torch

当前版本为:2.7.1+cu128
图片
五、升级triton

此时重启秋叶,运行fusionX工作流进行测试时提示错误:

Triton only support CUDA 10.0 or higher, but got CUDA version: 12.8

意思是triton版本过低,尚未完全支持 CUDA 12.8
图片

1、更新 Triton 到最新版本

下载链接:

https://github.com/woct0rdho/triton-windows/releases?page=2

我的本地python是3.11版的,所以选择cp311版的。

图片

2、先卸载老版本

命令:

E:\ComfyUI-aki-v1.7\python>python.exe -m pip uninstall triton

图片

把刚刚下载的triton文件粘贴到python文件夹内(为了安装方便,安装完可以删掉)。

图片
安装命令:

E:\ComfyUI-aki-v1.7\python>python.exe -m pip install triton-3.2.0-cp311-cp311-win_amd64.whl

图片

现在triton安装成功了。

六、生图速度测试

1、sageattention模式

我们拿fusionX的图生视频工作流来做测试,先采用sageattention模式。

由于第一次跑图需要加载模型,时间要多一些(233.46秒),所以这次不能作为测试依据。

图片

模型完全模型加载好后,进行第二次测试,一共耗时193.59秒。

图片

看下图生视频效果(这个工作流的地址我会放在文末)。

图片

2、sdpa模式

然后再切换到sdpa模式,其他所有参数不变,这次一共耗时273.84秒。

图片
图片

经过计算,sageattention模式比sdpa模式节省80.25秒,速度提升29.31%。

图片

文中用到的工作流:

https://www.runninghub.cn/post/1936801128262832130

往期文章:

只需3秒出图!flux Kontext秒出图谁不爱?Nunchaku最详细的安装部署教程,看这篇就够了!

史诗级电影镜头,堪比闭源模型,wan2.1_14B_FusionX,6步就可生成高质量AI视频,完全开源

END




感谢您的阅读,麻烦点个赞+在看吧!

没有评论:

发表评论

免费声音克隆并生成双人对话的工具整合包MOSS-TTSD,可以克隆两个人的音色,并生成两个人的对话音频,适用于播客、访谈等场景

AI应用帮,帮你用AI 公众号:AI应用帮 「   文中提供获取方式   」 ▼ 本期 带 来 声音克隆并生成双人对话的工具整合包   — —   MOSS-TTSD MOSS-TTSD(Text to Spoken Dialogue) 是由清华大学语音与语言实验室联合 Te...