CVPR 视频消除夺冠!小米开源视频消除神器 SVOR,专治三大顽疾

来源:小米技术 人工智能 7 次阅读
摘要:视频目标消除是一个非常实用的技术:当你在美丽的风景里拍了一段视频或 livephoto,而回看的时候发现画面中有不希望出现的内容(比如路人),这时景色已经变换无法再次拍摄,甚至已经离开了拍摄地点,视频消除技术可以挽救你的不完美视频。 在实际研发视频消除任务的过程中,我们发现了一个普遍存在的问题:现有的方法大多在理想条件下设计和验证,而真实世界的视频远比论文里的测试场景复杂——模型识别的掩码边缘不够

视频目标消除是一个非常实用的技术:当你在美丽的风景里拍了一段视频或 livephoto,而回看的时候发现画面中有不希望出现的内容(比如路人),这时景色已经变换无法再次拍摄,甚至已经离开了拍摄地点,视频消除技术可以挽救你的不完美视频。

在实际研发视频消除任务的过程中,我们发现了一个普遍存在的问题:现有的方法大多在理想条件下设计和验证,而真实世界的视频远比论文里的测试场景复杂——模型识别的掩码边缘不够准、物体消除后阴影仍然留在画面里、目标快速移动时逐帧处理频繁"跟丢"导致闪烁……这些问题让许多 SOTA 方法在真实使用中显得力不从心。

为此,我们提出了SVOR(Stable Video Object Removal)框架,专门针对这三类"不完美条件"设计了对应的解决方案:用 MUSE 窗口化联合策略解决运动抖动,用 DA-Seg 去噪感知分割提升遮罩容错能力,并通过课程式两阶段训练让模型真正学会处理阴影和反射残留。

最终,SVOR 在多个标准数据集和退化遮罩基准上均达到了新的 SOTA 水平,并在 CVPR 2026 物理感知视频实例消除挑战赛中从18支参赛队伍中脱颖而出,荣获第一名。代码现已完整开源,希望能切实帮助开发者和创作者在真实场景中用好视频消除技术。

01

视频物体消除,到底难在哪?

先说说这个任务的痛点。

在视频编辑与内容创作中,“消除不想要的元素”一直是个高频刚需。然而,当我们将各类方法从论文迁移到真实场景时,往往会遇到重重挑战:用户随手绘制的掩码不够精细;物体虽然去掉了,影子却留了下来;目标一旦快速移动,消除区域还会出现明显的闪烁——这些“不完美”,让许多 SOTA 模型在实际视频面前显得力不从心。

原因是很多已有的视频消除工作都在完美条件下开展的,但问题在于,现实世界的视频哪有那么多完美条件?

物体在动,光线在变,阴影忽隐忽现,遮罩边缘歪歪扭扭……现有的方法要么留下残影,要么画面闪烁,要么干脆把不该删的也删了。

结合真实世界的使用场景,小米大模型应用团队总结了三类"不完美":

  • 阴影残留:物体没了,影子还在

  • 运动抖动:快速移动的物体,容易漏帧

  • 遮罩缺陷:AI 识别的边界不准,影响修复效果

02

三大核心技术,环环相扣

SVOR 的核心思路很务实:先解决不完美条件下的可用性,再追求极致效果。

具体来说,我们设计了三个关键技术:

****MUSE:让快速运动不再漏帧****

MUSE(Mask Union for Stable Erasure),中文可以叫"窗口化联合策略"。

它主要解决的是运动抖动问题。打个比方:如果一个物体在视频里快速移动,每一帧的位置都不一样,传统的逐帧处理很容易"跟丢",导致物体一闪一闪的。

MUSE 的做法很聪明:它不把每一帧单独看,而是看一个时间窗口内的整体情况。

就像你拍视频的时候,即使物体在动,你也能凭肉眼追踪它的轨迹。MUSE 也是这个思路——通过时间窗口内的遮罩联合,确保快速运动的物体能被完整消除,不再出现"闪一闪又出现"的尴尬。

使用 MUSE 训练和推理,可以明显改善快速运动突变帧消除失效的问题

使用 MUSE 也可以免训练的改善已有方法对快速运动突变帧消除失效的问题

使用 MUSE 后,抖动掩码也能稳定消除

****DA-Seg:遮罩不完美?没关系****

DA-Seg(Denoising-Aware Segmentation**)**,去噪感知分割。

这个模块专门对付遮罩缺陷。现实中,AI 识别的物体边界往往没那么准,有点偏差是常态。

DA-Seg 相当于给系统配了个"纠错机制":即使遮罩不完美,它也能智能修正,不影响最终的修复质量。

可以理解为,它让 SVOR 有了"容错能力"。

在分割掩码有缺失的情况下,我们的方法在 DA-Seg 的加持下可用持续稳定的补全缺失掩码,得到更稳定的分割

DA-Seg 加持,再也不怕分割有缺陷了

****课程式两阶段训练:从理论到实战****

第三个关键是训练策略。

小米采用了课程式两阶段训练

  • 第一阶段:用真实背景视频自监督预训练,让模型学习自然的时序规律

  • 第二阶段:用合成数据精调,专门处理阴影和反射

这种"先学走路再学跑步"的策略,让模型跨场景适应能力极强。

两阶段训练,连人带影一并消除

03

性能有多强?

说再多技术细节,不如看数据。

在多个标准数据集和退化遮罩基准上,SVOR 都达到了新的 SOTA 水平

更关键的是,SVOR 对不完美条件的容忍度远超现有方法。这意味着它在真实场景中的可用性大大提升。

04

这意味着什么?

对于不同群体,SVOR 的价值各不相同:

  • 视频创作者:以后去路人、去杂物会更自然,告别"一眼假"。

  • 开发者:代码已经开源(Apache 2.0 协议),可以直接用。

  • 整个行业:视频修复从"实验室玩具"真正走向实用化。

而且,小米选择开源这个决策本身就很值得关注。在视频 AI 这个赛道,开源意味着生态共建,意味着更多创新应用会涌现出来。

我们相信,视频编辑工具的下一个突破,来自对“真实使用条件”的尊重。SVOR 的开源,希望能帮助开发者、创作者和研究者,在实际应用中真正解决视频消除的落地难题。

05 

CVPR 视频消除大赛**冠军**

基于SVOR 的方案在 CVPR 2026 物理感知视频实例消除挑战赛(https://xiangbogaobarry.github.io/PVIX-CVPR-VGBE-2026/)中,从18支参赛队伍中脱颖而出,荣获**第一名**(见结果榜单https://docs.google.com/spreadsheets/d/18qfBQesVNpHadUP\_cdL6T8hPGH\_cXrnJ94Z5H-zuibs,Team name: higher),在物理感知、人工评分和总分上大幅领先其他参赛队伍。

06

One More Thing

论文已经发布在 arXiv,项目代码也已开源,甚至贴心准备好 skill 供大家直接调用,还在等什么,让你的龙虾用起来吧(Claude Code、OpenCode 等工具同样可以直接使用)。

视频物体消除的"最后一公里"问题,小米 SVOR 给出了自己的答案。

此外,我们在视频消除的评测方案上也做了较多工作,包括评测数据收集整理和创新性评测方法,将在合适的时间进行开源,敬请期待。

相关推荐
评论区

登录后即可参与讨论

立即登录