之前已经给大家介绍了很多关于虚拟试穿的文章,本公众号也总结了虚拟试衣专题在公众号菜单栏,感兴趣的小伙伴可以在公
之前已经给大家介绍了很多关于虚拟试穿的文章,本公众号也总结了虚拟试衣专题在公众号菜单栏,感兴趣的小伙伴可以在公众号内搜索"虚拟试衣"阅读~
在基于图像的虚拟试穿(VTON)领域,In-Shop监督方法虽能保证高保真度却难跨域泛化,野外无监督方法适应性有限,统一且无需训练的通用方案亟待攻克。近日,由中国海洋大学等在ICCV 2025 提出的一篇名为 OmniVTON 的论文引起了广泛关注。该研究提出首个无需训练的通用 VTON 框架,创新性地解耦服装与姿势条件,运用服装先验生成、连续边界拼接及 DDIM 反转等技术,有效攻克纹理保真度与姿势一致性的难题,成功统一"棚拍"和"街拍"场景。不仅如此,这一框架还首次实现多人虚拟试穿,让多人在虚拟场景中能逼真地迁移服装,为虚拟时尚体验带来了全新的可能,为 VTON 技术发展开拓了崭新路径。
相关链接
论文: https://arxiv.org/pdf/2507.15037v1 项目: https://github.com/Jerome-Young/OmniVTON
论文
基于图像的虚拟试穿 (VTON) 技术要么依赖于店内监督方法,这种方法可以确保高保真度,但难以实现跨域泛化;要么依赖于野外无监督方法,这种方法可以提高适应性,但仍然受到数据偏差和普适性有限的限制。一个统一的、无需训练、能够同时适用于这两种场景的解决方案仍然是一个悬而未决的挑战。
论文提出了 OmniVTON,这是第一个无需训练的通用 VTON 框架,它将服装和姿势条件解耦,从而在不同环境下实现纹理保真度和姿势一致性。为了保留服装细节,我们引入了一种服装先验生成机制,将服装与身体对齐,然后采用连续边界拼接技术来实现细粒度的纹理保留。为了实现精确的姿势对齐,利用 DDIM 反转来捕捉结构线索,同时抑制纹理干扰,确保身体对齐的精确性,而不受原始图像纹理的影响。通过解开服装和姿势的约束,OmniVTON 消除了扩散模型在同时处理多种条件时固有的偏差。实验结果表明,OmniVTON 在各种数据集、服装类型和应用场景中均表现出色。值得一提的是,它是首个支持多人 VTON 的框架,能够在单个场景中实现多人之间逼真的服装迁移。
方法概述
OmniVTON 概述。 它包含两个主要步骤:
利用伪人图像 Io 实现多部分变形, 生成自适应服装。 将此先验与与服装无关的图像 Im 集成,创建服装融合图像I′p,并将其与姿态编码噪声 zˆT 连接作为输入,从而通过连续边界拼接机制获得精细的试穿结果。
潜在空间中不同光谱带的可视化。
实验结果
跨多个数据集和服装类型的定性结果。提供了 VITON-HD 数据集上的上衣试穿结果(上图),以及 DressCode 数据集上的下装/连衣裙视觉对比结果(下图)。
在不同场景(从上到下)下,StreetTryOn 基准的定性结果:商店到街道、模特到模型、模特到街道、街道到街道
对不同变体进行定性消融研究。
多人互动团体试穿(图7)。此功能源自SGM的创新设计,可无缝适配多位用户。给定多件服装,我们沿空间维度连接它们,同时生成多个伪人图像。图7。多人虚拟试穿。上行显示"模特到模特",下行显示"商店到街道"。
结论
OmniVTON是一个无需训练的通用框架,可确保纹理保真度和不同环境下的姿势一致性。结构化服装变形技术可实现服装与人体的解剖学对齐,而连续边界缝合技术则可确保无缝的纹理过渡,无需特定领域的训练即可实现细粒度的纹理一致性。光谱姿势注入技术通过频率感知的反转噪声调制进一步增强了姿势对齐,在消除纹理污染的同时保持了结构完整性。大量实验证明了 OmniVTON 在灵活性和泛化方面的优势,尤其是在其开创性的多人 VTON 能力方面。
感谢你看到这里,也欢迎点击关注下方公众号并添加公众号小助手加入官方读者交流群,一个有趣有AI的AIGC公众号:关注AI、深度学习、计算机视觉、AIGC、Stable Diffusion、Sora等相关技术,欢迎一起交流学习💗~
没有评论:
发表评论