2025年2月16日星期日

拖动图像编辑再升级!北大、腾讯提出DragonDiffusion,在扩散模型上启用拖动式操作。



之前的文章中给大家介绍过许多关于通过拖拽实现图像和视频编辑的方法,感兴趣的小伙伴可以点击👇链接阅读和收藏,整理不易,欢迎大家给文章点点赞和在看!

StableDrag:一种基于Diffusion模型的图像编辑,可一键拖拽生成,DragGAN被革新了!

快手发布DragAnything,拖动锚点精准控制视频物体和镜头运动,视频运动控制技术革命性更新

(CVPR2024)DragGAN作者新作DiffMorpher:可以实现两张图像间的平滑变形

ECCV2024,港大&牛津提出基于区域的图像编辑方法RegionDrag!

InstantDrag:仅需图像和拖动指令作为输入,在大约一秒内实现高质量的图像编辑。

北大、腾讯提出的DragonDiffusion可以对生成或真实的图像进行多种编辑,包括移动物体、调整物体大小、替换物体外观、拖动内容等。值得注意的是,所有编辑和内容保存信号都来自图像本身,模型不需要微调或额外的模块。

unsetunset论文介绍unsetunset

尽管现有的大规模文本转图像 (T2I) 模型能够从详细的文本描述生成高质量的图像,但它们往往缺乏对生成或真实图像进行精确编辑的能力。在本文中,我们提出了一种新颖的图像编辑方法DragonDiffusion,可在扩散模型上实现Drag式的操作。

具体而言,我们根据扩散模型中中间特征的强对应性构建分类器指导。它可以通过特征对应损失将编辑信号转换为梯度,以修改扩散模型的中间表示。基于这种指导策略,我们还构建了一个多尺度指导,以考虑语义和几何对齐。此外,还添加了跨分支自注意力以保持原始图像和编辑结果之间的一致性。

我们的方法通过高效的设计,实现了对生成或真实图像的各种编辑模式,例如对象移动、对象调整大小、对象外观替换和内容拖动。值得注意的是,所有编辑和内容保存信号都来自图像本身,模型不需要微调或额外的模块。

unsetunset方法unsetunset

所提出的DragonDiffusion 的流程。我们提出的方法由指导分支和生成分支组成。指导分支通过中间特征的对应关系为生成分支提供编辑和一致性指导。

unsetunset结果unsetunset

物体移动结果

物体外观替换结果

内容拖拽结果

感谢你看到这里,也欢迎点击关注下方公众号并添加公众号小助手加入官方读者交流群,一个有趣有AI的AIGC公众号:关注AI、深度学习、计算机视觉、AIGC、Stable Diffusion、Sora等相关技术,欢迎一起交流学习💗~

没有评论:

发表评论

一文告诉你,到底MCP和A2A有啥关系?(附5个优质MCP合集服务网站)

MCP + A2A = 超高效的智能体调用   点击下方,关注后台回复 【666】 ,免费领取 【DeepSeek学习礼包】       大家好,我是凡人。 在近一年中AI智能体的发展就像坐着火箭, 各行业的企业在实际业务应用中都在不断融入AI智能体( Agent )来提质增...