这项由浙江大学等机构联合开发的研究成果,以技术报告形式于2026年4月发布在预印本平台arXiv,编号为arXiv:2604.07209。研究团队将这套系统命名为INSPATIO-WORLD,旨在将一段普通的参考视频转变为一个可以实时自由漫游的动态四维世界。

假设你拍了一段客厅的视频,现在不仅想从另一个角度看这个房间,还想自由地向前走两步、向右转头看看窗边的植物,甚至想让时间快进或倒退——而这一切都在你拍摄的那一刻之后才发生。这正是INSPATIO-WORLD试图解决的核心问题,也是整个计算机视觉领域长期以来追求的梦想。

一、我们为什么需要一个"活的"视频世界

普通相机拍出的视频本质上是时间和空间的一次"快照记录":你只能站在那个固定的位置,沿着那个固定的方向,看那段固定时间里发生的事情。想从另一个角度看看?抱歉,那个角度当时没有摄像机。这就像你参加了一场演唱会,只坐在左侧第三排,演出结束后你想回味从舞台正后方看到的景象,却发现根本没有这个视角的录像。

现有的人工智能视频生成技术虽然已经能合成极为逼真的短片,但它们在这个问题上却有三个让人头疼的短板。

第一个短板是"空间遗忘症"。现有的自动生成框架缺乏有效的记忆机制,当你从一个房间的一端走到另一端再回头时,AI生成的画面往往已经"忘记"了起点的样子,墙上的装饰可能换了颜色,窗户可能出现在了不该出现的地方,这种现象被研究者称为空间持久性退化。

第二个短板是"塑料感"。很多AI视频系统在真实场景数据极其有限的情况下,大量依赖电脑游戏引擎或三维建模软件生成的合成数据来训练模型。这些数据虽然几何结构完美,但光照质感、材质纹理和真实世界存在明显差异,最终输出的画面往往带有一种奇怪的"塑料光泽",一眼就能看出是假的。

第三个短板是"控制失灵"。现有模型普遍无法精确执行用户设定的摄像机路径。你让它向左平移一米,它可能斜移了也可能根本没动,这反映出这些模型在空间几何推理能力上的根本性缺陷。

INSPATIO-WORLD的整个设计逻辑,就是围绕这三个短板展开的。

二、核心架构:像大脑一样同时记忆过去、感知现在、理解空间

研究团队为INSPATIO-WORLD设计了一套名为"时空自回归框架"的核心架构,英文缩写为STAR。理解这个架构,可以把整个生成过程类比成一位经验丰富的电影布景师在脑海中重建场景的方式。

这位布景师手中有三类信息可以参考。第一类是"原始剧本",也就是参考视频里的那些关键帧画面,它们记录了真实场景的样子,是一切重建工作的"出发点"和最终的"对标材料"。第二类是"施工记录",也就是之前已经生成好的那些视频帧,它们告诉布景师自己刚才走到了哪里、方才的画面是什么样的,用来保证运动的连续性和逻辑的合理性。第三类是"建筑蓝图",也就是从参考视频中提取出来的三维几何信息,包括深度图(每个像素距离摄像机有多远)和相机内参(相当于镜头的焦距和视角),这些信息让布景师知道空间中每一块砖瓦的精确位置。

每次需要生成一个新的视频片段时,系统会把用户的操作指令(比如"向前走"或"向左转")转换成一个精确的六自由度相机姿态变换,通俗来说就是告诉系统"摄像机现在应该在空间中的哪个位置、朝向哪个方向"。然后系统会用这个姿态信息将参考视频中的特征"重新投影"到新视角下,生成一张"几何对齐的预览图",同时附上一张"有效像素掩码"来标注哪些区域是真实可见的、哪些是被遮挡需要AI补全的。这三类信息被同时送入一个基于Transformer架构的扩散模型(可以把它理解为一个极强的"画面补全引擎"),最终生成既符合几何结构、又有高度视觉真实性的新视角画面。

三、时空缓存机制:永远不会"忘路之远近"的记忆系统

现有的自回归视频生成系统有一个根本性的问题:随着生成长度的增加,系统对早期内容的记忆会逐渐退化,就像一个长途跋涉的旅人走得越远、越记不清自己从哪里出发。INSPATIO-WORLD用"时空缓存机制"来解决这个问题,本质上是为系统设计了一套"短期工作记忆加长期空间锚点"的双重记忆体系。

短期工作记忆负责处理运动的连续性。系统始终保留最近生成的那一批帧(用滑动窗口的方式组织),确保从上一个镜头到当前镜头的过渡自然流畅,不会出现突兀的跳变。

长期空间锚点则负责处理场景的一致性。每次生成新内容时,系统会从原始参考视频中实时检索对应的参考帧,将其注入到生成过程中作为"全局空间坐标原点"。这就好比你在一栋大楼里四处参观,手里始终拿着一张建筑平面图,不管走到哪个房间,你都能在平面图上找到自己的位置,也能据此判断其他房间应该在哪个方向。

研究团队还发现了一个微妙但重要的技术问题:现有Transformer模型使用一种叫做"旋转位置编码"的机制来理解序列中各个元素的位置关系,但当生成序列变得非常长时,新生成内容的位置编号会不断增大,超出模型在训练时见过的范围,导致它开始"不知道自己在哪"。INSPATIO-WORLD采用了一种"位置索引锚定"策略,将当前待生成块、参考帧和历史帧的起始位置索引都固定在同一个绝对坐标原点上,让模型始终在一个稳定的表示空间内工作,彻底解决了长序列推断时的数值不稳定问题。

四、几何约束机制:给AI配一把精密测量尺

纯靠记忆和直觉是不够的,还需要精确的测量工具。INSPATIO-WORLD的"几何感知显式约束"模块,扮演的正是这把精密测量尺的角色。

当用户按下"向前移动"的键时,系统做的不是模糊地"生成一个看起来前进了的画面",而是执行一套严格的三维几何计算流程。系统会调用前馈重建方法(一类可以从单张图像快速估计三维结构的技术,包括深度估计和相机参数恢复)从参考视频中提取出场景的三维点云,然后根据精确计算出来的新相机姿态将这些三维点重新投影到新视角的二维画面上,得到一张带有真实几何结构的"骨架图",同时生成一张二值掩码标注出哪些像素是有效投影、哪些是因遮挡或视野外而无法投影的空白区域。

这张骨架图和掩码就像是建筑工人拿到的施工图纸,AI不再需要凭空猜测新视角下门应该在哪里、柱子应该多粗,因为几何结构已经被明确给定了,AI只需要负责"涂色"——填充真实的纹理、光照和细节。

更进一步,INSPATIO-WORLD还支持一种"可选的显式结构记忆"模式:系统可以把每次生成的视频内容重建为三维点云,并动态扩展一张整体的场景点云地图。这相当于给AI配备了一个随时更新的三维地图,让它在探索未知区域时也有空间结构可以参考。

五、多条件因果初始化:教会AI正确理解"先有鸡还是先有蛋"

在自回归视频生成领域,初始化策略的好坏直接决定了后续生成的质量。一种主流方法(以CausVid为代表)是用因果注意力掩码来强制模型遵循"当前帧只能参考之前帧"的生成顺序,但这种方法有一个根本缺陷:当模型需要同时考虑历史帧、参考图像和几何约束这三类截然不同的输入时,简单的因果掩码根本无法准确描述这些信号之间复杂的依赖关系,强行使用往往导致生成质量不理想。

INSPATIO-WORLD提出了"多条件因果初始化"策略。这个策略的核心思路是:与其一开始就让模型进入"快速生成"模式,不如先让它在真实数据或教师模型的轨迹上做充分的"多步预演",确保模型在初始阶段就建立起与各类输入条件之间准确的关联理解。等到模型对"如何响应参考视频"、"如何响应几何约束"、"如何衔接历史帧"都形成了稳固的认知之后,再进入蒸馏阶段(即加速生成阶段),让模型专注于提升速度和细节精度。

还有一个设计细节值得关注:通过通道拼接方式注入的几何约束信息,被限制为只作用于当前正在生成的视频块,历史帧对应的通道则用零填充。这个设计防止了过去的几何信号污染历史缓存,确保缓存里保存的始终是纯粹的图像信息,从而保证了整个时空自回归过程的逻辑完整性。

六、联合分布匹配蒸馏:让AI同时向两位老师学习

解决了架构问题,还剩下那个顽固的"塑料感"问题——大量使用合成数据训练出来的模型,生成的画面总是缺少真实世界的那种光影质感和材质细节。

INSPATIO-WORLD提出了一种叫做"联合分布匹配蒸馏"(JDMD)的训练策略来解决这个问题。要理解这个机制,可以参考这样一个场景:有个学徒需要同时向两位师父学习。师父甲是位精通测量和工程规范的建筑师,专门教徒弟如何按照精确的图纸施工,确保房子的结构毫厘不差——这对应着以合成数据训练的"运动控制教师模型",它能教模型如何精确地遵循相机轨迹。师父乙是位审美极高的室内设计大师,专门教徒弟如何让空间在视觉上显得真实、温暖、有质感——这对应着原始的Wan2.1文本生成视频基础模型,它是在海量真实世界视频上预训练的,对真实视觉分布有深刻的"直觉"。

在训练过程中,这两个任务交替激活、共享模型权重。当执行"可控视频重渲染"任务(即给定参考视频和几何信息,生成新视角视频)时,从合成数据教师那里获得的梯度指导模型精确控制运动;当执行"文本生成视频"任务时,从真实数据教师那里获得的梯度指导模型校准视觉分布,提升纹理和光照的真实感。

这个机制之所以有效,关键在于两个任务的输入结构截然不同,因此梯度方向不会相互干扰:运动控制的优化不会破坏视觉保真度的优化,反之亦然。通过这种"双师共训",INSPATIO-WORLD最终实现了控制精度和视觉质量的双重保障。

从工程实现角度,研究团队还设计了一种"分块反向传播"策略来解决训练时的内存瓶颈。现有自回归扩散模型在计算分布匹配损失时,由于序列长度增加导致内存压力暴增,往往不得不在KV缓存构建时关闭梯度计算,这使得模型只能被动地拟合特征,限制了生成质量的上限。分块反向传播策略将前向推断和反向优化解耦:第一阶段用无梯度模式完整推断全序列,只保留最终输出用于计算损失;第二阶段逐块重新执行前向计算并立即触发反向传播,每个块的中间表示在梯度更新后立即释放。这个"时间换空间"的策略将峰值内存占用压缩到单个块的规模,同时保证了全链路的可微性。

七、实验结果:三项任务全面验证优势

研究团队在三个不同的评测任务上验证了INSPATIO-WORLD的能力,覆盖了世界模型评测、长期视频生成和相机控制视频重渲染三个维度。

在WorldScore-Dynamic基准测试上,INSPATIO-WORLD以1.3B参数量在所有实时或交互式方法中排名第一,运动平滑度得分达到71.91,相机控制精度得分达到81.51,光度质量得分达到93.00。对比数据尤为说明问题:同为实时交互方法的TeleWorld虽然在3D一致性上得分略高(87.35对84.18),但相机控制精度(76.58对81.51)和光度质量(88.82对93.00)均明显落后于INSPATIO-WORLD。而那些不支持实时交互的重量级模型,如FantasyWorld-1.0(71.39的总体动态得分,采用非实时模式),则在整体动态得分上略高于INSPATIO-WORLD(68.72),但其计算代价远超后者。

在RE10K长视频生成任务中,研究团队从RealEstate10K数据集中随机选取了100段超过150帧的序列进行评测。INSPATIO-WORLD取得了42.68的FID(衡量单帧图像质量与真实数据的分布差距,越低越好)和100.55的FVD(衡量视频时序质量,越低越好),显著领先于排名第二的LingBot-World(64.84和173.02)。在相机运动精度上,INSPATIO-WORLD的轨迹误差(旋转误差2.8762,平移误差0.1398)相比LingBot-World(11.981和0.2064)有压倒性的优势,体现了精确几何约束带来的控制精度提升。

在相机控制视频重渲染任务上,系统在真实的OpenVid数据集和合成的Blender数据集上均表现出色。在Blender数据集上,FID降至44.46,FVD降至110.11,与NeoVerse相比(FID 103.23,FVD 230.87)有大幅提升。在OpenVid数据集上,综合视频质量得分(VBench六项指标均值)达到0.8507,在所有对比方法中排名第一,且相机控制精度(旋转误差1.6000,平移误差0.1240)与NeoVerse(1.5780和0.1340)持平,实现了视觉质量和控制精度的同步领先。

从定性比较来看,对比实验中的基线方法各有不同的失败模式:Infinite-World随着生成序列增长出现严重的结构变形和几何扭曲;HY-WorldPlay缺乏稳定的运动控制,经常退化成静态帧重复;LingBot-World虽然单帧质量尚可,但因相机姿态估计不准确而无法精确跟随预设轨迹。INSPATIO-WORLD则在整个长序列中始终保持了几何完整性和精确的相机控制。

八、工程实现:如何在普通显卡上跑出24帧每秒

从研究原型到真正可用的实时系统,工程优化同样至关重要。

在数据方面,训练使用了多元化的数据源:包括大规模公开互联网视频(如RealEstate10K)、虚幻引擎渲染的合成序列,以及公开的ReCamMaster数据集。每段视频都会被送入前馈重建模型来提取深度信息,为几何约束的注入做准备。

训练分为三个阶段。第一阶段是教师模型训练,使用2×10??的学习率,建立稳定的性能基准。第二阶段是学生模型初始化阶段,沿用相同的学习率,让学生模型建立起自回归推断能力。第三阶段是联合分布匹配蒸馏阶段,学生网络的学习率降至4.0×10??,判别网络(负责辨别生成质量好坏的子模块)的学习率设为8.0×10??。

在推断加速方面,团队采用了两项措施:用轻量级的Tiny-VAE替换原有的Wan-VAE(VAE是负责将像素空间压缩为潜在空间的编解码器,轻量版虽然精度略有损失,但延迟大幅降低),以及使用PyTorch的图级编译优化(torch.compile)减少运行时开销。最终,搭载1.3B参数版本的INSPATIO-WORLD在专业级H系列NVIDIA GPU上实现了24帧每秒的实时生成,在消费级RTX 4090上也能维持10帧每秒。

九、当前的局限与未来的方向

研究团队对系统的局限性保持了相当清醒的认识,这一点颇为难得。

目前,INSPATIO-WORLD的空间记忆能力主要依赖于参考视频提供的原始几何骨架,对于那些在探索过程中新生成的区域(即超出原始参考视频覆盖范围的新内容),系统缺乏对精细纹理细节的持久记忆能力——它记住了房子的框架,却可能忘记了新探索到的走廊墙上那幅画的图案。

此外,在处理宽角度、全方位视角转换时,确保动态元素(比如场景中运动的人物或飘动的树叶)在多视角之间保持时空一致性依然是一个开放性难题。

针对这些局限,研究团队计划在未来开发更深层的语义记忆系统,探索几何结构与高维纹理特征的深度耦合,实现对生成区域更完整的记录与重建。同时还计划引入更强的物理先验约束,让系统在大规模、高复杂度的动态场景中实现真正意义上的物理正确的闭环仿真。

说到底,INSPATIO-WORLD做的事情可以用一句话概括:把一段平凡的视频变成一个你可以真正"走进去"的四维世界。这件事听起来像科幻电影里的情节,但它已经在一块普通的消费级显卡上以每秒十帧的速度运行着了。

对于机器人和自动驾驶领域来说,这意味着可以用最低成本从真实世界视频中生成海量的训练数据,而不必为每种可能出现的视角都去真实采集。对于游戏和影视行业,这意味着一个新的内容创作范式正在成形。对于普通用户,或许有一天你手机里的旅游视频,真的可以让你在里面重新漫步一遍。

当然,现在的系统还有明显的短板,360度全方位漫游和动态场景的长期记忆是研究者明确承认的两道坎。但考虑到这套系统的代码和模型已经完全开源(可在GitHub上通过inspatio/inspatio-world找到),学术社区接下来会以怎样的速度填补这些空白,是一个相当值得期待的问题。

有兴趣深入了解技术细节的读者,可以通过arXiv编号2604.07209查阅完整论文。

Q&A

Q1:INSPATIO-WORLD和普通的AI视频生成有什么区别?

A:普通AI视频生成是给定文字或图片后生成一段固定视角的视频,看完就没了。INSPATIO-WORLD不同,它能把一段已有的参考视频变成一个可以实时交互的四维空间,用户可以通过键盘或手柄控制摄像机方向,自由在场景中移动漫游,就像在玩一个以真实视频为背景的游戏,并且整个过程是实时生成的,消费级显卡上能跑到每秒10帧。

Q2:INSPATIO-WORLD是怎么解决生成画面"塑料感"的问题的?

A:核心方法是"联合分布匹配蒸馏"(JDMD)。系统同时向两个教师模型学习:一个是用合成数据训练的、擅长精确几何控制的教师,另一个是在海量真实视频上预训练的、对真实视觉质感有深度理解的教师。两个任务共享模型权重但交替激活,真实数据教师的梯度持续校准模型的视觉分布,让它在生成时自动向真实光照和材质质感靠拢,从而消除合成数据带来的塑料感。

Q3:INSPATIO-WORLD需要什么硬件才能运行,普通人用得上吗?

A:系统针对不同硬件提供了不同的运行体验。搭配专业级H系列NVIDIA GPU可以实现24帧每秒的真正实时运行;在消费级RTX 4090显卡上也能维持10帧每秒,已经可以用于交互式浏览。由于代码和1.3B参数的模型已经完全开源,技术爱好者可以直接在GitHub上的inspatio/inspatio-world仓库下载使用,不需要购买商业授权。