2025年6月14日星期六

AI让老照片动起来,只要两个工作流就可以轻松实现

相信很多人都刷到这种让老照片动起来的视频,看着那些充满年代感的照片突然以一种活灵活现的感觉出现在自己眼前,特别

相信很多人都刷到这种让老照片动起来的视频,看着那些充满年代感的照片突然以一种活灵活现的感觉出现在自己眼前,特别是看着多年前的亲人、故友突然从照片中"活过来"时,心情还是挺激动的。
今天我们就用comfyUI来实现让老照片动起来的效果。
图片
要实现让老照片中的人物动起来,我们要分为两个步骤来实现。
1、步骤一,老照片修复
这个步骤的功能就是要让一张发黄的老照片变成一张高清的写实照片。
这个功能在上篇文章中讲过,借助 flux.1 Kontext 强大的功能,只要用一个工作流、三个节点就能轻松实现让老照片修复的功能,而且还能免费白嫖。
详见文章:
flux.1 kontext高级用法,多图融合,虚拟穿衣,AI产品展示,效果炸裂!
图片
2、步骤二:图生视频
得到清晰的写实照片后,我们再用图生视频功能就可以让照片动起来。方法有也有很多,用framepack、Wan2.1都可以轻松实现。
具体实现方法:
一次性生成120秒的AI长视频,6G显存就能使用,完全开源免费,FramePack王一般的存在
在家也能制做电影级的AI视频,一步一步教你如何搭建Wan2.1的VACE工作流,超详细教程
图片
那么问题来了,能不能只通过一个工作流就一次性实现这个功能呢?
呃,还真有,工作流我也搭好了。
其实也没什么难的,就是将老照片修复和图生视频两个工作流连接到了一起,将kontext的输出管道连接到图生视频的图片加载节点就可以了。
图片
但是啊,但是,当我将两个工作流串起来跑的时候,悲剧也随之发生了:系统报错,提示显存不足!
图片
所以,我们还是老老实实分成两个步骤,用两个工作流来跑吧。
3、图生视频工作流
我用wan2.1VACE工作流和framepack F1工作流分别跑了一遍图生视频。
下面这个是wan2.1VACE工作流的截图,整个工作流像密密麻麻的电路板,用它跑出来的视频人物更自然,更真实,但耗费资源和时间更多。
图片
下面这个是framepack的工作流截图,看起来就比VACE的工作流简单多了,facemack耗费资源比较少,耗时也比较短。
图片
下面这是两个视频放在一起的对比图。
左面的是VACE跑出来的视频,人物的皮肤、光线等更加自然和真实,但耗费资源也比较多,耗时更长。为了平衡时间,VACE用的分辨率要低一些,所以图片看起来没有右面的framepack跑的视频清晰。
图片
具体选择哪个文生视频工作流,大家自行斟酌吧。
最后,将本次用到的工作流放在最后面,都可以免费在线使用的。
老照片修复工作流:

https://www.runninghub.cn/post/1932800388817195010

framepack 图生视频工作流:

https://www.runninghub.cn/post/1933810828397469698

wan-VACE 图生视频工作流:

https://www.runninghub.cn/post/1933481916970487810

END




感谢您的阅读,麻烦点个赞+在看吧!

没有评论:

发表评论

Google DeepMind 发布最强视频生成工具 Veo 3, 可为作品添加音效、环境噪音、对话,文中附体验链接。

今天跟大家介绍谷歌的视频生成模型 Veo 3,可为作品添加音效、环境噪音甚至对话,所有音频均可原生生成。 今天跟大家介绍谷歌的视频生成模型 Veo 3,可为作品添加音效、环境噪音甚至对话,所有音频均可原生生成。它还能提供一流的音质,在物理效果、真实感和快速响应方面均表现卓越。...