2025年10月2日星期四

视频想P就P!一键换人+对口型同步,Wan2。2-Animate×Infinitetalk超神工作流,ComfyUI全流程拆解

昨天我们用Wan2.2-Animate的KJ工作流做了视频换人+动作迁移+视频对口型的AI视频,KJ的工作流做出的视频有些偏色,所以今天我们换成官方的工作流看看效果如何。

今天我们主要还是用到两个工作流,一个是Animate工作流,用来实现视频换人+动作迁移,然后再用到infinitetal,用来实现视频对口型。
一、视频换人+动作迁移
先打开Animate官方工作流(文中用到的所有工作流见文末)。
图片
在模型加载这里,加载的仍然是KJ的FP8模型。
图片
现在官方只有一个bf16模型,这个模型但足足有近35G,本地电脑肯定也跑不起来这个模型。
图片
这个工作流除了加载了一个I2V的lightx2V加速lora,还加载了一个relight重打光的lora。
图片
其它的视频编码器和VAE都是正常加载,没有什么变化,也没什么需要特别说明的。
图片
参考视频被强制帧率为16帧/秒(你可以不作更改),视频节点后面连接了一个视频信息读取节点,可以看到视频的帧率是16,时长是6.68秒,总帧数是107帧。
图片
用于替换视频中人物的图片宽高比没有太多要求,尽量高清就可以。
图片
频尺寸宽832,高480,具体宽高比没有要求,但一定要是8的倍数。
图片
这个工作流中人物的面部的姿态和身体姿势分别用了两个DW姿态预处理器获取,这里要注意的是检测模型一定要选择yolox_1.torchscript.pt,不然速度会非常慢。
图片
人物遮罩的获取部分,同样用到了点编辑器节点,绿色是正坐标,红色是负坐标,如果默认的坐标选择不正确,可以手动调整。
shift+鼠标左键是绿色正坐标,shift+鼠标右键是红色的负坐标。
这些坐标点原则上不需要太多,够用就行。
图片

最后这些数据进入WanAnimateToVideo节点,这个节点里有一个非常重要的输出参数是"video_frame_offset",它代表着你目前的帧数是整个视频的第几帧,看到这个参数就代表这个工作流具有循环扩展功能,具体使用方法后面讲。

接着数据进入采样器和视频剪辑节点,因为生成的视频前几帧一般是没有的,需要经过视频剪辑节点进行修剪,视频具体修剪多少帧,是由前面的WanAnimateToVideo节点自动算出来的,我们不用去管它。

图片

这个工作流中需要设置的参数比较少,现在就可以点击生成了视频了。

生成的视频中人物动作迁移做的比较好,很好的还原了原视频中人物的动作。但人物的嘴型并没有太好得到匹配,这是由于人的嘴巴所占的像素比较小,不容易被检测出来造成的。 

问题一:生成视频时长较短
这时可能有人已经发现了,生成的视频并没有达到参考视频的长度,这是因数我们的视频生成长度只有77帧,这是为了节约算力造成的。
图片
如果想生成完整的视频时长,还需要经过下面的循环扩展工作流。
图片
那么需要循环几次呢,需要经过一个公式来计算:ceil(a/b)-1

这是一个取整数的公式,a/b就是参考视频的总帧数(107)/我们每次处理的帧数(77)=1.39,取整数=2。因为已经跑过一遍了,所以需要再减去1,最后等于1。

也就是说我们跑完一次77帧后,还需要再循环跑一次,才能得到和参考视频一样时长的视频。

图片
来到循环工作流部分,刚刚计算出来的循环次数给到循环的总量,告诉工作流需要计算几次。
我们第一次跑出来的基础视频连接到"初始值1"
前面我们讲到的"video_frame_offset",它代表着你目前的帧数是整个视频的第几帧,将它连接到value2里,告诉循环工作流每次从第几帧开始计算。
图片
后面的工作流和我们上面的工作流差不多,如果我们循环不止1次,在循环工作流里的"video_frame_offset"会把更新后的偏移值再次传回,进入新的循环,最后经过几次循环后得到一个完整的长视频。
问题二:视频末尾会有静止帧
视频最后出现静止帧,是因为最后一次循环的帧数不够一次完整的循环,工作流会用静止去填补最后的时长。
解决方法:
我们可以从原视频获得总帧数,用它匹配生成视频的时长。
图片
问题三:平台跑出的视频会有水印
如果是在runninghub上跑视频,视频左上角会有水印,我们可以用图像联结的方式,在视频上方加一条纯色,然后再回到剪映里把水印部分剪掉就可以了。
图片
现在我们就得到了一个没有水印的视频了。

这个官方工作流生成的视频比Kj的工作流视频色彩还原要好一些,但经过多次循环后视频质量会有所下降,建议不要生成时间太长的视频。
问题四:参考人物和参考视频色调不匹配
我最开始使用的参人物是暖色调的,参考视频是冷色调的,虽然animate支持重新打光功能,可以让新生成视频中人物的光照效果尽量和四周环境相匹配,但可能冷暖灯光相差太大,生成的视频中人物在环境里显得还是有些突兀。
图片
下面这个视频是直接用原始参考图片生成的视频,人物是暖色调的而且比光线亮,周围环境是冷色调的光线暗,对比反差大,一眼就看出是合成的视频。

解决办法:
用Qwen-image-edit-Plus对参考图片进行调色。
将参考视频截取一帧,然后将参考图片的色调调成和参考视频相近的色调。
图片
提示词:

保留图片1中人物的五官、发型、服装、姿势和画面构图,仅将整体灯光与色调替换为图片2的冷蓝色风格,不添加或修改任何人物外貌细节。

图片

现在调整后的人物图片和视频色调比较接近了,用它生成的视频就不那么突兀了。

二、视频对口型

频对口型我们用到infinitetalk的单人工作流,限于篇幅,今天只简单说一下它的使用方法。

图片
工作流调
打开我给的工作流连接(在文末),左上面的节点加载我们上面用Animate生成的最终视频,下面的节点先取消忽略,上传参考音频的视频并连接到右方的箭头指向的AudioCrop节点。
图片
设置好宽高,然后点击生成就可以了。
图片
在这个工作流里我也在视频的最上方做了一个纯底的颜色,我们到剪映里再把这个纯色剪掉,就得到无水印的视频了。
图片
最后,文中用到的工作流:

Qwen-image-edit-plus图片编辑调色工作流:

https://www.runninghub.cn/post/1973677046226358273

an2_2_14B_Animate_自动循环工作流:

https://www.runninghub.cn/post/1973652058060533761

infinitetalk_视频对口型工作流:

https://www.runninghub.cn/post/1973646117596434433


----------我是分割线----------


【如何获取工作流】

目前RunningHUB可以说是插件和模型更新最快的网站了,如果想体验 ComfyUI最新版的功能,可以到RunningHUB上面去体验。
如果通过我的邀请码注册,可以获得1000点积分,这些积分可以白嫖很长时间了,每日登录还能再获得100积分。
注册链接:
https://www.runninghub.cn/?inviteCode=3qo65owt
邀请码:3qo65owt
我的很多工作流也都上传到了RunningHUB平台上面,在平台上面搜索"青橙"就能搜到,这些工作流可以免费下载到本地,也可以用刚刚注册时送的积分免费在平台上面体验。
图片


END




感谢您的阅读,麻烦点个赞+在看吧!

没有评论:

发表评论

我的天,AI搜索已进化到这种程度了?

前不久,Google 声称"推出了 Chrome 历史上最大的升级",给搜索栏加上了 AI 模式。 万物皆可 AI 。在 AI 时代下,搜索的形态也在不断进化。 即使是 Chrome 这样的巨头,也必须顺应 AI 的浪潮,从传统搜索方式向 AI 搜索转变。...