Home

Zehui Chen

29 Sep 2020

ECCV2020_ObjectDetection

已经很久没有写paper reading的笔记了,但是突然想到之前naiyan即使到现在也依然会写reading notes,之前还给我们分享过,一个word里面写了整整200篇reading notes,实属🐂🍺。所以还是应该学习学习,做一些笔记方便日后回忆吧,这次主要是记录一下刷eccv2020里面检测的相关文章吧~

BorderDet: Border Feature for Dense Object Detection

这篇文章实属闭着眼睛涨点,因为其实本质上有二次回归的思想,从border拿feature,那你得先回归出来border在哪里吧?所以作者就需要加一个分支来进行第一次回归从而知道border大致位置,然后再用borderalign来提取feature,讲道理,虽然涨点,但是我认为这种方法并不会真正应用到我们的model中,但是从它可视化的热力图来看,borderalign出来的feature map确实很有意思,它能够知道在边界的确定位置去感应物体还是挺牛逼的,虽然不知道是不是找出来的个例哈哈哈

Probabilistic Anchor Assignment with IoU Prediction for Object Detection

这篇文章总的来说两个点,但是有新意的可能有一个点,但是如果结合目前paper的大环境我觉得也不是非常的novel。先说说label assignment这里的创新点吧~其实之前我也总结过label assignment的一些相关问题,包括auto-Assign也有过总结,这里的想法也很简单,我通过使用BCE loss和IoU(跟那篇learning from noisy labels很像有木有)作为一个metric,然后对topk个样本进行排序,接着我会用两个gaussian分布来拟合这样一个一维的分布,因为直觉上来说,正样本会形成一个高斯,负样本会近似一个高斯,然后就可以根据这个GMM的参数来确定anchor的正负label,从而实现了label assignment的问题。

然后第二点就是我要吐槽的,都0202年了还有人要学iou来calibrate检测框…而且还学的如此粗旷…所以这两个加在一块涨的还挺多的,不过我也还是觉得这个东西就是topk + ATSS套在一起的思想…

Dive Deeper Into Box for Object Detection

这篇文章写的很有水平,至少看起来整个文章很nice,但是实际上我总觉得很tricky。首先作者提出要把bbox的每一条边给拆开,也就是对于每一个anchor来说,他要么回归一个物体,要么是背景,对于一个物体来说,会有很多个anchor去回归它,那么对于这些anchor回归出来的每一条边,都能够组成一组边来逼近GT的那一条边。所以如果我们能够把每一个anchor回归出来的边给拆开,然后训练时,把这些边按照对应的顺序进行重组,对于一个GT来说,我们先把回归出来的最好的4条边组成在一起算IoUloss,依次类推。当然,作者提到后面的IoUloss很可能很差,因为是很多个最差的boundary回归出来组合在一起,这个时候就使用原来的IoUloss进行计算~作者还提到了第二个module,是用来减少bg对训练造成的影响的,也就是在learning的过程中,不断会形成cls > mean(cls), 和reg iou loss < mean(iou loss)的点,我们取这两者之并,来缩小最终需要训练的分类样本。从实验上来看,这个semantic consistency module虽然做法不是很显眼,但是直接让baseline涨了4个点左右,着实让我有些摸不着头脑..本质上似乎是在调整label assignment,但是为什么会涨这么多?还是没能想明白,先留着吧…

End of Post
at 14:45

scribble