当前位置:网站首页>CVPR 2022最佳学生论文:单张图像估计物体在3D空间中的位姿估计

CVPR 2022最佳学生论文:单张图像估计物体在3D空间中的位姿估计

2022-07-05 16:54:00 PaperWeekly

634cfc8425577e4c4b50e0236f0fc9aa.gif

作者 | 陈涵晟

单位 | 同济大学、阿里达摩院

来源 | 机器之心

距离 CVPR 2022 各大奖项公布没多久,来自同济大学研究生、阿里达摩院研究型实习生陈涵晟为我们解读最佳学生论文奖。

本文解读我们获得 CVPR 2022 最佳学生论文奖的工作。论文研究的问题是基于单张图像估计物体在 3D 空间中的位姿。现有方法中,基于 PnP 几何优化的位姿估计方法往往通过深度网络提取 2D-3D 关联点,然而因为位姿最优解在反向传播时存在不可导的问题,难以实现以位姿误差作为损失对网络进行稳定的端到端训练,此时 2D-3D 关联点依赖其他代理损失的监督,这对于位姿估计而言不是最佳的训练目标。

为解决这一问题,我们从理论出发,提出了 EPro-PnP 模块,其输出位姿的概率密度分布而非单一的位姿最优解,从而将不可导的最优位姿替换为了可导的概率密度,实现了稳定的端到端训练。EPro-PnP 通用性强,适用于各类具体任务和数据,可以用于改进现有的基于 PnP 的位姿估计方法,也可以借助其灵活性训练全新的网络。从更一般的意义来说,EPro-PnP 本质是将常见的分类 softmax 带入到了连续域,理论上可以推广至训练一般的嵌套了优化层的模型。

803edf04bb05aaa0ea78c7e585ce4b2d.png

论文标题:

EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monocular Object Pose Estimation

论文链接:

https://arxiv.org/abs/2203.13254

代码链接:

https://github.com/tjiiv-cprg/EPro-PnP

c249c03eae042ac515d8a1ef79d004ad.png

前言

af2e2dd0a47cc50c61cc7f7423cfae5c.png

我们研究的是 3D 视觉中的一个经典问题:基于单张 RGB 图像定位其中的 3D 物体。具体而言,给定一张含有 3D 物体投影的图像,我们的目标是确定物体坐标系到相机坐标系的刚体变换。这一刚体变换被称为物体的位姿,记作 y,其包含两部分:1)位置(position)分量,可用 3x1 的位移向量 t 表示,2)朝向(orientation)分量,可用 3x3 的旋转矩阵 R 表示。

560344220efa14b771f5f2b584df617a.png

针对这一问题,现有方法可以分为显式和隐式两大类。显式方法也可称作直接位姿预测,即使用前馈神经网络(FFN)直接输出物体位姿的各个分量,通常是:1)预测物体的深度,2)找出物体中心点在图像上的 2D 投影位置,3)预测物体的朝向(朝向的具体处理方法可能比较复杂)。

利用标有物体真实位姿的图像数据,可以设计损失函数直接监督位姿预测结果,轻松地实现网络的端到端训练。然而,这样的网络缺乏可解释性,在规模较小的数据集上易于过拟合。在 3D 目标检测任务中,显式方法占据主流,尤其是对于规模较大的数据集(例如 nuScenes)。

9687e10750000c4259932aa948e424b2.png

隐式方法则是基于几何优化的位姿估计方法,最典型的代表是基于 PnP 的位姿估计方法。这类方法中,首先需要在图像坐标系中找出 N 个 2D 点(第 i 点 2D 坐标记作 ),同时在物体坐标系中找出与之相关联的 N 个 3D 点(第 i 点 3D 坐标记作 ),有时还需要获取各对点的关联权重(第 i 对点的关联权重记作 )。根据透视投影约束,这 N 对 2D-3D 加权关联点隐式地定义了物体的最优位姿。具体而言,我们可以找出使重投影误差最小的物体位姿 :

47b3d82f58c29aad4a22ef0cf004202e.png

其中 ,表示加权重投影误差,是位姿的  函数。 表示含有内参的相机投影函数, 表示元素乘积。PnP 方法常见于物体几何形状已知的 6 自由度位姿估计任务中:

b4353a24f91eabf7b0c11eef8de48e2a.png

基于 PnP 的方法也需要前馈网络去预测 2D-3D 关联点集 

402 Payment Required

。相比于直接位姿预测,这一深度学习结合传统几何视觉算法的模型有非常好的可解释性,其泛化性能较为稳定,但在以往的工作中模型的训练方法存在缺陷。很多方法通过构建代理损失函数,去监督 X 这一中间结果,这对于位姿而言不是最优的目标。

例如,已知物体形状的前提下,可以预先选取出物体的 3D 关键点,然后训练网络去找出对应的 2D 投影点位置。这也意味着代理损失只能学习 X 中的部分变量,因此不够灵活。如果我们不知道训练集中物体的形状,需要从零开始学习 X 中的全部内容该怎么办?

显示和隐式方法的优势互补,如果能够通过监督 PnP 输出的位姿结果,端到端地训练网络去学习关联点集 X ,则可以将二者优势结合。为实现这一目标,一些近期研究利用隐函数求导实现了 PnP 层的反向传播。然而,PnP 中的 argmin 函数在某些点是不连续不可导的,使得反向传播并不稳定,直接训练难以收敛。

9f36cdb94efe52fe391b8cac468ade45.png

EPro-PnP方法介绍

2.1 EPro-PnP模块

1bbb2c2ca441085abeb5d6202ce40f91.png

为了实现稳定的端到端训练,我们提出了端到端概率 PnP(end-to-end probabilistic PnP),即 EPro-PnP。其基本思想是将隐式位姿视作一个概率分布,则其概率密度  对于 X 是可导的。首先基于重投影误差定义位姿的似然函数:

fffb8258be3ceda03e0e5dece966bc6e.png

若使用无信息先验,则位姿的后验概率密度为似然函数的归一化结果:

557f2d152b8fbc123462ba3ba691a92a.png

可以注意到,以上公式与常用的分类 softmax 公式 

402 Payment Required

 十分接近,其实 EPro-PnP 的本质就是将 softmax 从离散阈搬到了连续阈,把求和   换成了积分  。

2.1 KL散度损失

在训练模型的过程中,已知物体真实位姿 ,则可以定义目标位姿分布 。此时可以计算 KL 散度  作为训练网络所用的损失函数(因  固定,也可以理解为交叉熵损失函数)。在目标  趋近于 Dirac 函数的情况下,基于 KL 散度的损失函数可以简化为以下形式:

b8699086855ff3edb6c49b65a02d637c.png

如对其求导则有:

1e9939c222cb948ba0b1a26d3d444488.png

可见,该损失函数由两项构成,第一项(记作 )试图降低位姿真值  的重投影误差,第二项(记作 )试图增大预测位姿  各处的重投影误差。二者方向相反,效果如下图(左)所示。作为类比,右边就是我们在训练分类网络时常用的分类交叉熵损失。

20d2ae2991d27a732f14ebd9d0733b8c.png

2.3 蒙特卡洛位姿损失

需要注意到,KL 损失中的第二项  中含有积分,这一积分没有解析解,因此必须通过数值方法进行近似。综合考虑通用性,精确度和计算效率,我们采用蒙特卡洛方法,通过采样来模拟位姿分布。

153a567ef4564d3473210343399b39aa.png

具体而言,我们采用了一种重要性采样算法——Adaptive Multiple Importance Sampling(AMIS),计算出 K 个带有权重  的位姿样本 ,我们将这一过程称作蒙特卡洛 PnP:

8b82ac4f32a5e9c1a152bd74de216baa.png

据此,第二项  可以近似为关于权重  的函数,且  可以反向传播:

7c85d3efd8b08918f06772990a8026f7.png

位姿采样的可视化效果如下图所示:

1dd1208f5eb834f02ab4c75470c292ed.png

2.4 针对PnP求解器的导数正则化

尽管蒙特卡洛 PnP 损失可以用于训练网络得到高质量的位姿分布,但在推理阶段,还是需要通过 PnP 优化求解器来得到最优位姿解 。常用的高斯 - 牛顿及其衍生算法通过迭代优化求解 ,其迭代增量是由代价函数  的一阶和二阶导数决定的。为使 PnP 的解  更接近真值 ,可以对代价函数的导数进行正则化。设计正则化损失函数如下:

2171d34e1cf6a6ce75b7adfbaf555b19.png

其中, 为高斯 - 牛顿迭代增量,与代价函数的一阶和二阶导数有关,且可以反向传播, 表示距离度量,对于位置使用 smooth L1,对于朝向使用 cosine similarity。在  与  不一致时,该损失函数促使迭代增量  指向实际真值。

4a6d742439fefe988fcf28a6250ffbfa.png

基于EPro-PnP的位姿估计网络

我们在 6 自由度位姿估计和 3D 目标检测两个子任务上分别使用了不同的网络。其中,对于 6 自由度位姿估计,在 ICCV 2019 的 CDPN 网络的基础上稍加修改并用 EPro-PnP 训练,用来进行 ablation studies;对于 3D 目标检测,在 ICCVW 2021 的 FCOS3D 基础上设计了全新的变形关联(deformable correspondence)检测头,以证明 EPro-PnP 可以训练网络在没有物体形状知识的情况下直接学出所有 2D-3D 点和关联权重,从而展现 EPro-PnP 在应用方面的灵活性。

3.1 用于6自由度位姿估计的稠密关联网络

8ea5e6122bd343352de0eef0dc2371a3.png

网络结构如上图所示,只是在原版 CDPN 的基础上修改了输出层。原版 CDPN 使用已经检测到的物体 2D 框裁剪出区域图像,输入到 ResNet34 backbone 中。原版 CDPN 将位置与朝向解耦为两个分支,位置分支使用直接预测的显式方法,而朝向分支使用稠密关联和 PnP 的隐式方法。

为了研究 EPro-PnP,改动后的网络只保留了稠密关联分支,其输出为 3 通道的 3D 坐标图,以及 2 通道关联权重,其中关联权重经过了 spatial softmax 和 global weight scaling。增加 spatial softmax 目的是对权重db24d354c41b944252f1164a66074817.png进行归一化,使其具有类似 attention map 的性质,可以关注相对重要的区域,实验证明权重归一化也是稳定收敛的关键。Global weight scaling 反映了位姿分布6e8d95efb26ccf0240ab7027ada09c35.png 的集中程度。该网络仅需 EPro-PnP 的蒙特卡洛位姿损失就可以训练,此外可以增加导数正则化,以及在物体形状已知的情况下增加额外的 3D 坐标回归损失。

3.2 用于3D目标检测的变形关联网络

ec1c2645e88dc5098937a2d7c66ac70b.png

网络结构如上图所示。总体而言是基于 FCOS3D 检测器,参考 deformable DETR 设计的网络结构。在 FCOS3D 的基础上,保留其 centerness 和 classification 层,而将其原有的位姿预测层替换为 object embedding 和 reference point 层,用于生成 object query。参考 deformable DETR,我们通过预测相对于 reference point 的偏移量得到 2D 采样位置(也就得到了aff1c328f1249afed0f80e9f11bee8e8.png)。采样后的 feature 经由 attention 操作聚合为 object feature,用于预测物体级别的结果(3D score,weight scale,3D box size 等)。

此外,采样后各点的 feature 在加入 object embedding 并经由 self attention 处理后输出各点所对应的的 3D 坐标6be2852dc85e2cfb2691a20c07372dbb.png和关联权重a12b489e82e86acf81aa2feb4219c209.png。所预测的56de7d9633ea921b7db29bfdd7ff2a83.png全部可由 EPro-PnP 的蒙特卡洛位姿损失训练得到,不需要额外正则化就可以收敛并有较高的精度。在此基础上,可以增加导数正则化损失和辅助损失进一步提升精度。

84021dec59627ad6e0f9d9a0e04f3576.png

实验结果

4.1 6自由度位姿估计任务

ee25dc54d98163eb8ab7b533202e4ba7.png

使用 LineMOD 数据集实验,并严格与 CDPN baseline 进行比对,主要结果如上。可见,增加 EPro-PnP 损失进行端到端训练,精度显著提升(+12.70)。继续增加导数正则化损失,精度进一步提升。在此基础上,使用原版 CDPN 的训练结果初始化并增加 epoch(保持总 epoch 数与原版 CDPN 的完整三阶段训练一致)可以使精度进一步提升,其中预训练 CDPN 的优势部分来源于 CDPN 训练时有额外的 mask 监督。

28879b14e07010e965d40eeed6d937e9.png

上图是 EPro-PnP 与各种领先方法的比较。由较落后的 CDPN 改进而来的 EPro-PnP 在精度上接近 SOTA,并且 EPro-PnP 的架构简洁,完全基于 PnP 进行位姿估计,不需要额外进行显式深度估计或位姿精修,因此在效率上也有优势。

4.2 3D目标检测任务

55c830ba1f3535bee1c7a5c280fafaad.png

使用 nuScenes 数据集实验,与其他方法对比结果如上图所示。EPro-PnP 不仅相对 FCOS3D 有了明显提升,还超越了当时的 SOTA、FCOS3D 的另一个改进版本 PGD。更重要的是,EPro-PnP 目前是唯一在 nuScenes 数据集上使用几何优化方法估计位姿的。因 nuScenes 数据集规模较大,端到端训练的直接位姿估计网络已具有较好性能,而我们的结果说明了端到端地训练基于几何优化的模型能做到在大数据集上取得更加优异的性能。

4.3 可视化分析

cf6f058a10d89cd6ce24bac712c1bc0a.png

上图显示了用 EPro-PnP 训练的稠密关联网络的预测结果。其中,关联权重图fdbffc42e10c24de3d26ebcbbbc88809.png对图像中的重要区域进行了高光,类似于 attention 机制。由损失函数分析可知,高光区域对应的是重投影不确定性较低以及对位姿变动较为敏感的区域。

eb05a70d35a857bfda7b28af87c05fcc.png

3D 目标检测的结果如上图所示。其中左上视图显示了变形关联网络采样出的 2D 点位置,红色表示38919c34c169827a33f550ed9d2ee445.png水平 X 分量较高的带你,绿色表示60804f4c022ddc816f285ef1101add89.png垂直 Y 分量较高的点。绿色点一般位于物体上下两端,其主要作用是通过物体高度来推算物体的距离,这一特性并非人为指定,完全是自由训练的结果。右图显示了俯视图上的检测结果,其中蓝色云图表示物体中心点位置的分布密度,反映了物体定位的不确定性。一般远处的物体定位不确定性大于近处的物体。

c5d898c6f27e1a56509fdd69fdb3b327.png

EPro-PnP 的另一重要优势在于,能够通过预测复杂的多峰分布来表示朝向的模糊性。如上图所示,Barrier 由于物体本身旋转对称,朝向经常出现相差 180° 的两个峰值;Cone 本身没有特定的朝向,因此预测结果在各个方向均有分布;Pedestrian 虽不完全旋转对称,但因图像不清晰,不易判断正面和背面,有时也会出现两个峰值。这一概率特性使得 EPro-PnP 对于对称物体不需要在损失函数上做任何特殊处理。

d767801c7ad97988863cd62076a2a98e.png

总结

EPro-PnP 将原本不可导的最优位姿转变为可导的位姿概率密度,使得基于 PnP 几何优化的位姿估计网络可实现稳定且灵活的端到端训练。EPro-PnP 可应用于一般的 3D 物体位姿估计问题,即使在未知 3D 物体几何形状的情况下,也可以通过端到端训练学习得到物体的 2D-3D 关联点。因此,EPro-PnP 拓宽了网络设计的可能性,例如我们提出的变形关联网络,这在以往是不可能训练的。

此外,EPro-PnP 也可以直接被用于改进现有的基于 PnP 的位姿估计方法,通过端到端训练释放现有网络的潜力,提升位姿估计精度。从更一般的意义来说,EPro-PnP 本质是将常见的分类 softmax 带入到了连续域,不仅可用于其他基于几何优化的 3D 视觉问题,理论上还可以推广至训练一般的嵌套了优化层的模型。

更多阅读

10a67fb8f99c80d9562fca749c941133.png

6af2310e0224596f1d4f4bac91b0e4c8.png

17eacdbab315ce9b99e544ec98c18679.png

3903afdc23da9c71c7a42b61390f4dc0.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

87b57b99696710e9753a4ada80d6ff60.png

△长按添加PaperWeekly小编

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

5dcebccfa467d76b189c4537acc666cd.jpeg

原网站

版权声明
本文为[PaperWeekly]所创,转载请带上原文链接,感谢
https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/125611155