投稿问答最小化  关闭

万维书刊APP下载

ECCV 2022 | FlowFormer:光估计新范式

2022/11/7 13:56:07  阅读:219 发布者:

导读

本文主要介绍港中文MMLab和商汤ISP&Codec团队合作发表在ECCV 2022上的工作。

作者提出了FlowFormer模型,将Transformer结构引入到光流估计任务中,大幅提高了光流估计的性能。在公开的Sintel榜单的CleanFinal两个指标上,FlowFormer分别实现了1.162.09 AEPE,相比之前的最好方法分别下降了16.5%15.5%。此外,只在FlyingChairsFlyingThings数据集上训练,FlowFormerSintel TrainingClean指标上实现了1.01 AEPE,较之前最好方法降低21.7%,展现了优秀的泛化能力。

论文名称:FlowFormer: A Transformer Architecture for Optical Flow

 Part 1 动机和背景

光流任务目标为估计相邻两帧每个像素的位移值。在许多下游的任务中,如动作识别、视频修补、视频超分,光流算法都作为基础组件提供运动和对应关系信息。

随着深度学习的发展和训练数据集的涌现,近年来光流算法不断进步,但是之前基于CNN的模型受限于局部感受野,无法处理大尺度运动、遮挡、模糊等极端情况。近来,Transformer因其长距离建模能力收到了极大的关注。作者提出将Transformer结构引入到光流估计任务中,结合传统cost volume等结构,实现更好的预测结果。

 Part 2 方法

本文的框架主要包含三个部分:基于Transformer 的特征编码器,cost volume编码器和cost volume解码器。

2.1 基于Transformer的特征编码器

我们选择在Imagenet数据集上预训练的Twins-SVT模型作为特征编码器,从输入的两帧

中提取出高维特征图后,构建4D cost volume,用于后续处理。

2.2 Cost Volume编码器

Cost Volume是由多个记录源

像素和所有目标

像素相似性的cost map组成的。首先,每个cost map被投射到隐空间,转化为Ktoken,每个token是一个D维的feature。基于此,我们提出了轮换分组Transformer来充分融合Cost Volume的信息。具体而言,第一种是对来自同一个cost maptoken进行attention操作,另一种是对分属不同cost maptoken进行attention融合。交替进行这两种融合操作,从而实现对Cost Volume的编码。

2.3 Cost Volume解码器

FlowFormer使用cross-attentionCost Volume编码器中提取特征,具体而言,根据当前估计的光流值生成查询(query)。取出的特征,结合上下文特征以及当前光流值,预测出光流残差,循环迭代优化光流。

 Part 3 实验结果

在公开的Sintel榜单的CleanFinal两个指标上,FlowFormer分别实现了1.162.09 AEPE,相比之前的最好方法分别下降了16.5%15.5%。此外,只在FlyingChairsFlyingThings数据集上训练,FlowFormerSintel TrainingClean指标上实现了1.01 AEPE,较之前最好方法降低21.7%,展现了优秀的泛化能力。

 Part 4 可视化结果

相比之前的最佳方法,FlowFormer在物体边界上降低了模糊效应,更好的保留了细节。

 Part 5 团队简介

ISP和编解码是视觉计算领域的底层核心技术,决定着图像视频质量和文件大小。通过机器学习与ISP结合,可以让手机、相机等各类Camera拍出更好的照片和视频,也让后端计算机视觉算法表现更佳。通过机器学习与编码技术结合,可以让照片和视频有更好的压缩率,保持高画质,节省存储和带宽。团队拥有深度学习技术专家、ISP和编解码技术专家,并与芯片设计专家紧密协作。

相关资料

►项目主页:

https://drinkingcoder.github.io/publication/flowformer/

►论文链接:

https://arxiv.org/pdf/2203.16194.pdf

►开源代码:

https://github.com/drinkingcoder/FlowFormer-Official

转自:arXiv每日学术速递”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com