guodong's blog

master@zhejiang university
   

论文阅读CVPR19 Bounding Box Regression with Uncertainty for Accurate Object Detection

论文地址 https://arxiv.org/pdf/1809.08545.pdf

如图所示,真值标注本身就有缺陷,自身的模糊性。如果使用L1 loss将导致不可信的结果.

再如图所示,左图两个候选框都不合适,右图0.32的候选框虽然合适,但是得分比0.96低导致被弃选。

针对以上问题,作者提出了一种边框参数化,然后介绍了在训练过程中的损失函数KL损失,最后提出了了一种新的NMS方法提高位置的精确度。

1.Bounding Box Parameterization

形如其他bounding box预测一样,这里也是预测偏移量。不同的是,作者预测一个概率分布,而不是单纯的边框坐标。尽管这个分布可能会很复杂,像混合高斯。作者假设坐标是独立的,同时为了简单,仅仅使用一个变量–标准差。

其中Θ是一组学习的参数,xe是估计的边界框。标准差σ表示估计值的不确定性。当σ趋向0的时候,表示网络很确定坐标。对于真值的处理,同样可以格式化成高斯分布,只是它的σ是一个Dirac delta 函数

xg表示坐标位置。

2. Bounding Box Regression with KL Loss

D(P||Q)表示当用概率分布Q来拟合真实分布P时,产生的信息损耗,其中P表示真实分布,Q表示P的拟合分布。

KL损失就是两个分布的信息熵差。由于第三项第四项和Θ无关,所以损失可以认为只取决于

当σ为1时,

正好为欧式距离。

这个损失函数对xe和σ是可导的:

因为σ是分母,为了防止梯度爆炸,网络通过预测

来代替σ。于是loss

在测试的时候,再将α转变成σ。

时,我们采取类似fast r-cnn的L1 loss:

在训练初始化时,σ被设为0.0001,均值被设为0。

如图4,蓝颜色和灰颜色的高斯分布为预测的,橘色的为真值。当估值xe预测不准的时候(如图蓝色),我们期望能够预测较大的偏差,这样Lreg会小

3.Variance Voting

这个就是改进的nms。

受soft-nms影响,对较近并且低不确定的boxes赋予较高的权重。假设x表示一个坐标值,例如(x1),xi表示第i个box的坐标,则通过下面的公式来计算新的坐标:

σt通过算法调优。两种类型的邻近boxes将会得到更低的权重:1)有着高偏差的盒子 2)与选择的box有着较低的iou。 类别分数不参与这个过程,因为较低分数的boxes可能有着更高的坐标置信度。

 




上一篇:
下一篇:

头像

guodong

没有评论


你先离开吧:)



发表评论

电子邮件地址不会被公开。 必填项已用*标注