今天介绍的文章来自公众号读者投稿,由香港大学与阿里达摩院联合研发的PlayerOne模型正式亮相。
今天介绍的文章来自公众号读者投稿,由香港大学与阿里达摩院联合研发的PlayerOne模型正式亮相。该技术突破传统虚拟场景构建范式,通过单张图像输入即可生成高保真动态虚拟世界,并支持用户以实时动作捕捉实现第一人称自由交互。具体而言,PlayerOne依托多模态生成引擎,可基于用户上传的静态图像生成具备空间一致性的3D场景,并通过端侧摄像头实时捕捉人体骨骼动作序列,将物理世界的动态数据无延迟映射至虚拟空间。用户不仅能以沉浸式第一视角穿梭于媲美AAA级游戏的虚拟场景中,还可通过肢体动作与虚拟环境进行自然交互,例如抬手触发机关、下蹲躲避障碍等,实现"所见即所动"的虚实融合体验。
相关链接
● 论文标题:PlayerOne: EgocentricWorld Simulator
● 项目主页:https://playerone-hku.github.io/
● 论文链接:https://arxiv.org/abs/2506.09995
● 视频介绍:https://www.youtube.com/watch?v=OyvDTCIMYXU
效果展示
论文首先通过动态演示视频直观呈现PlayerOne的核心能力:算法可基于实时人体动作输入,生成与场景语义强关联的动态模拟视频,且虚拟角色与物理环境(如光照、障碍物)的交互响应具备物理合理性。该技术不仅适用于现实场景重建(如历史遗迹数字化复现),亦可无缝迁移至游戏场景开发(如开放世界动作游戏),展现出跨领域的通用性。
在沉浸式社交应用中,PlayerOne突破传统VR的预渲染限制,支持用户通过自然肢体动作(如手势、步态)实时驱动虚拟化身,实现第一人称视角下的无穿戴设备交互。其技术优势体现在:
- 无限制动作控制:用户可自由执行行走、抓取、攀爬等复杂动作,动作映射延迟低于50ms;
- 动态场景一致性:虚拟环境随用户动作实时更新(如推开虚拟门后触发室内光照变化),避免场景割裂感;
- 多模态交互增强:结合语音指令与动作识别,支持更自然的社交互动(如挥手致意、合作解谜)。
方法介绍
动机
当前世界模拟器技术正面临预测建模精度与交互式现实主义之间的核心矛盾:尽管在复杂动态场景的实时适应性上取得突破,但现有研究仍局限于游戏化仿真框架,难以复现真实世界的开放交互性。现有方案存在三大关键缺陷:
- 场景泛化能力不足:多数研究聚焦于封闭游戏环境,缺乏对现实场景(如城市街道、自然灾害模拟)的迁移能力;
- 动作控制受限:用户交互被约束为预设动作集(如仅支持方向键移动),无法实现物理空间中的自然动作映射;
- 用户角色被动化:尽管部分系统实现了场景一致性生成,但用户仅作为观察者存在,无法通过动作驱动环境反馈,导致虚实交互断层。
针对上述痛点,本文提出第一人称视角的世界基础框架(First-Person World Framework, FPWF),其核心创新在于:
- 单图场景生成:基于用户提供的第一人称视角图像,通过多模态生成模型构建可交互的3D场景;
- 无限制动作捕捉:利用外置摄像头实时捕捉人体骨骼运动,将自然肢体动作(如奔跑、攀爬、抓取)无延迟映射至虚拟角色;
- 动态反馈闭环:构建虚实交互规则引擎,使环境响应(如推倒虚拟障碍物后触发后续场景变化)与用户动作保持物理一致性。
通过该框架,用户可化身自由探索的冒险者,在虚拟世界中实现"所见即所动"的沉浸式交互,彻底打破传统模拟器中"观察者-场景"的二元对立。
算法整体框架基于DiT模型,模型的输入输出如下: 输入:1. 第一帧图像(First Frame):用户提供的初始场景图像(第一视角,如佩戴头显视角拍摄的厨房、驾驶座等)。 2. 人体动作序列(Human Motion Sequence):通过外视角摄像头捕捉的真实人体动作(如头部转动、手部抓取、腿部移动),以 SMPL-X 参数或 2D/3D 关键点形式表示。 输出:生成的模拟视频(Simulated Video):动态视频,严格对齐输入动作序列,保持场景几何一致性(如物体遮挡关系、光照变化随视角调整)。
具体而言,方法首先将第一人称视角图像转换为视觉token。同时人物动作序列被划分为多个组,并分别输入到动作编码器中以生成部件级动作潜在编码,其中头部参数被转换为仅旋转的摄像机序列。该摄像机序列随后通过摄像机编码器进行编码,其输出被注入到带噪声的视频潜伏向量中以改善视角变化对齐。接下来,论文使用原始的视频渲染一个4D 场景点云序列,该序列随后通过带适配器的点云编码器处理以生成场景潜在编码。然后论文将这些潜在编码的拼接输入到 DiT 模型中,并对视频和场景潜在编码同时进行噪声添加和去噪处理,以确保世界一致的生成。最后,通过VAE解码器对去噪后的潜变量进行解码以生成最终结果。需注意,推理仅需第一帧和人体动作序列。
核心模块与流程
部件解构的动作注入模块
先前研究通常将摄像机轨迹用作动作条件,或仅限于特定方向的动作。这些限制使用户只能扮演被动的"观察者"角色,阻碍了有意义的用户交互。相比之下,论文的方法通过采用现实世界中的人体动作序列(即人体姿态或关键点)作为动作条件,使用户能够成为积极的"参与者",从而实现更自然且不受限制的动作。然而,论文的实证分析表明,从人体动作参数中整体提取潜在表示会增加精确动作对齐的复杂性。为解决这一挑战,论文提出了一种部分解耦的动作注入策略,该策略认识到身体各部分的不同作用。具体而言,手部动作对于与环境中的物体互动至关重要,而头部在维持第一人称视角的视角对齐方面发挥着关键作用。因此,论文将人体动作参数分为三类:躯干与双脚、双手和头部。每类参数均通过专属的动作编码器进行处理,该编码器由八层3D卷积网络组成,以提取相关潜在特征。这种专用处理确保了准确且同步的动作对齐。这些潜在特征随后沿通道维度进行拼接,形成最终的部件感知动作潜在表示。为了进一步增强第一人称视角对齐,论文仅将人体动作序列中的头部参数转换为仅包含旋转值的相机外参序列。论文清零相机外参中的平移值,同时假设头部参数位于相机坐标系的原点。
场景帧共同重建
虽然上述模块能够实现对第一人称视角和动作的精确控制,但它并不能保证生成的世界中场景的一致性。为了解决这一限制,论文提出了一个联合重建框架,该框架同时建模4D场景和视频帧,确保视频全程的场景一致性和连续性。具体而言,该框架首先利用CUT3R基于原始的视频数据为每个帧生成点云图,并通过第1帧至第n帧的信息重建第n帧的点云图。随后,这些点云图通过专用点云编码器压缩为潜在表示。为将这些潜在表示与视频特征集成,论文使用一个适配器将点云图潜在表示与视频潜在表示对齐,并将其投影到共享的潜在空间中,从而实现动作数据与环境数据的无缝融合。最后,论文将第一帧的潜在表示、人体动作序列、噪声视频潜在表示以及对应的噪声点云图潜在表示进行拼接。该综合输入随后被输入到扩散变换器中进行去噪,从而生成一个连贯且视觉一致的世界。重要的是,点图仅在训练阶段需要。在推理阶段,系统通过仅使用第一帧和对应的人体动作序列来生成与世界一致的视频,从而简化了过程。这种简化的方法提高了生成效率,同时确保生成的环境在整个视频中保持稳定和现实。
数据集构造
训练策略
实验结果
对于不同训练策略的消融对比
为验证所提出的由粗到细(Coarse-to-Fine, C2F)训练框架的有效性,论文系统评估了三种变体策略(如视频演示所示):
- 基线模型直接迁移(Baseline Transfer)
将动作描述文本直接输入未微调的基线模型时,生成结果存在显著缺陷: - 几何失真:手部区域出现非自然形变(如五指粘连);
- 语义噪声:视频中意外生成无关人员(如背景中随机出现的路人)。
- 动作-视频对独立训练(Action-Video Pair Training)
仅使用动作-视频同步数据集进行训练时,尽管模型能学习到动作与视觉的粗粒度关联,但生成结果仍存在以下问题: - 时序不匹配:动作指令与视频帧间存在延迟(如挥手动作滞后于虚拟角色响应);
- 细节丢失:复杂动作(如攀爬)导致局部纹理模糊。
- 多模态联合训练(Joint Multimodal Training)
为整合大规模第一人称视角视频与动作-视频对数据,论文设计了一种条件化联合训练策略: - 输入处理:当输入第一人称视频时,将动作潜在编码(Action Latent Code)置零,仅提取文本描述的语义潜在值作为动作条件;
- 采样优化:采用平衡采样策略,按1:1比例交替抽取第一人称视频与动作-视频对;
- 结果缺陷:尽管该策略能生成第一人称视角视频,但生成内容与真实人体动作条件的对齐误差高达23.7%(基于IoU指标),表现为动作幅度偏差(如跑步时虚拟角色仅缓慢行走)。
对于部件解构的动作注入模块的消融对比
接下来,论文对解构模块进行了详细分析。具体而言,包含三种变体:基于ControlNet的动作注入、将动作序列作为统一实体输入("耦合"方案)以及移除论文的摄像头编码器。基于ControlNet的方案存在信息丢失问题,导致其无法生成与指定动作条件准确对齐的结果。同样,纠缠方案也表现出类似的缺陷。此外,移除摄像头编码器导致模型无法生成视角准确的对齐结果。该变体无法产生与下蹲动作对应的视角变化。最终,提出的解构模块成功生成既视角对齐又动作对齐的结果。
对于不同重建方式的消融对比
论文对重建模块进行了详细分析,探索了三种变体:省略重建、移除SR模块内的适配器,以及用DUStR替换CUT3R进行点云渲染。如图所示省略重建导致模型无法生成一致的模拟结果。此外,由于帧的潜在变量与点图之间的分布差异,在不使用适配器的情况下进行训练会导致损失收敛困难,从而产生明显的失真。此外,在用DUStR替换CUT3R后,算法也能生成与场景一致的输出,这表明其对不同的点云渲染技术具有鲁棒性。
与其他方法的对比
由于没有与该人物设置相同的其他方法,论文选择了两个潜在的竞争对手进行比较:Cosmos 和 Aether。 如下方展示的样例所示(从左到右分别是PlayerOne,Cosmos-7B, Cosmos-14B, Aether),提出的方法相比于已有的方法在场景一致性以及环境交互角度有着较为明显的优势。
未来展望
相较于传统模型场景绑定与动作固化的局限性(如仅支持预设游戏场景的离散动作),PlayerOne展现出跨域泛化能力:其基于多模态环境感知与动态动作映射机制,可实时捕捉开放世界中的复杂动态交互(如推倒障碍物后触发路径变化),并支持用户通过无穿戴设备实现自由肢体动作控制(如攀爬、抓取、闪避等连续动作)。
然而,当前模型在游戏场景中的性能表现较现实场景存在约12%的精度差异(F1-score),这一现象可能源于数据分布偏移:现实场景数据集中包含大量非结构化动态元素(如行人、车辆),而游戏数据集多聚焦于规则化交互(如NPC对话、预设任务),导致模型在高动态性游戏环境中的泛化能力受限。
感谢你看到这里,也欢迎点击关注下方公众号并添加公众号小助手加入官方读者交流群,一个有趣有AI的AIGC公众号:关注AI、深度学习、计算机视觉、AIGC、Stable Diffusion、Sora等相关技术,欢迎一起交流学习💗~
没有评论:
发表评论