由北京大学王亦洲课题组提出的名为 FreeCloth 的基于点云的混合式人体衣物建模方案,突破了现有方法在宽松
由北京大学王亦洲课题组提出的名为 FreeCloth 的基于点云的混合式人体衣物建模方案,突破了现有方法在宽松衣物建模中的技术瓶颈。针对宽松衣物与骨骼运动关联性较弱的特点,该方法采用无约束自由生成网络,直接在姿态空间中对宽松衣物点云进行条件式生成。其混合表达框架兼具灵活性和强表达能力,能精准捕捉复杂几何细节。实验证明,FreeCloth 显著优于现有最先进的方法。文章在 CVPR 2025 中作为 Highlight 发表。
与最先进的技术比较
相关链接
论文:https://arxiv.org/pdf/2411.19942 代码:https://github.com/AlvinYH/FreeCloth 主页:https://alvinyh.github.io/FreeCloth 视频:https://www.youtube.com/watch?v=4dyM1hjTBdQ
论文介绍
要实现逼真的动画人体模型,需要对与姿势相关的服装变形进行精确建模。现有的基于学习的方法严重依赖于像 SMPL 这样的极少着装人体模型的线性混合蒙皮 (LBS) 来建模变形。然而,这些方法难以处理宽松的服装,例如长裙。当服装远离身体时,规范化过程会变得模糊不清,导致结果不连贯且碎片化。
为了克服这一限制,论文提出了 FreeCloth,这是一个用于建模具有挑战性的着装人体的新型混合框架。核心思想是使用专用策略来建模不同的区域,具体取决于它们靠近身体还是远离身体。具体来说,将人体分为三类:裸露、变形和生成。只需复制不需要变形的裸露区域即可。对于靠近身体的变形区域,利用 LBS 来处理变形。对于对应于宽松服装区域的生成区域,引入了一种新型的自由形态、局部感知的生成器来建模它们,因为它们受运动的影响较小。这种自由形态的生成范式为混合框架带来了更高的灵活性和表现力,使其能够捕捉诸如短裙和连衣裙等具有挑战性的宽松服装的复杂几何细节。在宽松服装基准数据集上的实验结果表明,FreeCloth 实现了卓越的视觉保真度和真实感,尤其是在最具挑战性的情况下,达到了最佳性能。
方法概述
给定一个裸体、摆好姿势的身体,以及一件特定的服装类型,我们的目标是创建一个逼真的着装人体。我们首先将人体部位分割成三个不同的区域:裸体部位(黄色)无需变形,变形部位(蓝色)和生成部位(绿色)。混合框架包含两个基本模块:(1)基于 LBS 的局部变形网络,用于获取接近人体的、与姿势相关的变形点;(2)自由形态生成器,专注于生成更宽松的服装区域。通过合并裸体、变形和生成点,我们最终获得了着装人体的完整点云。
定性结果
结论
FreeCloth 是一种基于点的混合解决方案,用于建模具有挑战性的着装人体。它集成了 LBS 变形和自由形态生成技术,以处理不同的服装区域。为了协同这两个模块的优势,论文提出将人体表面分割为裸露区域、变形区域和生成区域,从而生成服装剪裁图。该框架有效地消除了先前方法在建模裙子和长裙时出现的类似裤子和密度不均匀的伪像。自由形态生成器提供了增强的拓扑灵活性和表现力,使模型能够生成逼真且高质量的褶皱细节。用不同的裙长、紧度和款式来评估我们的模型,实验结果证明了所提框架的卓越表征能力。
感谢你看到这里,也欢迎点击关注下方公众号并添加公众号小助手加入官方读者交流群,一个有趣有AI的AIGC公众号:关注AI、深度学习、计算机视觉、AIGC、Stable Diffusion、Sora等相关技术,欢迎一起交流学习💗~
没有评论:
发表评论