北京大学袁粒团队开源UltraShape 1.0,可从单张图像生成高精度水密3D网格。采用两阶段扩散框架,先粗生成后体素细化,几何质量媲美商业系统。支持低显存GPU,适合游戏、影视、电商、3D打印等领域开发者使用。
Tags:
一句话总结:输入单张图像 → 输出水密、高细节、可工业使用的3D网格,UltraShape 1.0 用「全局向量集定位 + 局部体素细化」的两阶段扩散框架,在仅使用公开数据的前提下,几何质量媲美商业闭源系统。
由北京大学袁粒团队开源的全新的高保真3D形状生成框架 UltraShape 1.0,不仅解决了传统3D生成工具在细节粗糙和几何质量差方面的难题,更为游戏、影视、电商、3D打印等多个领域带来了革命性的解决方案。在仅使用公开3D数据集的前提下,实现了开源模型中领先的几何保真度。
相关链接
论文:https://arxiv.org/pdf/2512.21185 仓库:https://github.com/PKU-YuanGroup/UltraShape-1.0 模型:https://huggingface.co/infinith/UltraShape
论文介绍
随着3D内容在影视特效、游戏开发、虚拟现实等领域的广泛应用,高保真3D几何生成成为关键需求。然而,现有方法在几何细节和分辨率上仍面临挑战,难以满足实际应用需求。为此,北京大学袁粒团队提出了UltraShape 1.0,旨在通过创新的生成框架,实现从单张图片到高精度3D模型的转换。
方法概述
UltraShape 1.0 流程概览,其中 Enc. 和 Dec. 分别代表 VAE 的编码器和解码器。右上角的上标"2"表示第二阶段模型。MC 代表行进立方体算法。
两阶段生成流程
第一阶段:粗生成 基于Hunyuan3D-2.1生成粗糙的全局结构网格,捕捉物体的整体形态。 第二阶段:精细化 UltraShape对粗网格进行体素化精细化,补充局部细节,提升几何精度。
通过RoPE位置编码提供精确的空间锚点,使扩散模型在缩小的结构化解空间内高效合成细节。
关键技术
体素化精细化:将空间定位与几何细节合成解耦,聚焦局部几何细节,提升生成效率。 高质量数据处理:包括水密网格处理、薄结构加厚、低质量样本过滤等,确保训练数据的高质量。 低显存支持:通过参数调整,适配低显存GPU,扩大模型适用范围。
实验
与现有开源方法相比,UltraShape 1.0在数据集处理质量和几何生成方面均表现出色,生成的3D模型细节更丰富、几何更精准。
结论
。UltraShape有望在3D生成领域发挥更加重要的作用,推动游戏、影视、电商等多个行业的创新发展。
感谢你看到这里,添加小助手 AIGC_Tech 加入官方 AIGC读者交流群,下方扫码加入 AIGC Studio 星球,获取前沿AI应用、AIGC实践教程、大厂面试经验、AI学习路线以及IT类入门到精通学习资料等,欢迎一起交流学习💗~
没有评论:
发表评论