本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.
作者:孙明
来源:https://zhuanlan.zhihu.com/p/83310317
在这里介绍一下最近做的两篇关于物体检测的论文,主要解决的问题是scale,前提是不牺牲测试速度。 论文地址分别是:
https://arxiv.org/pdf/1909.02225.pdf
(1)通过learning方式学习dilation
https://arxiv.org/pdf/1909.02293.pdf
(2)通过automl的方式搜索dilation
(一)问题
检测里面scale变化非常大,其中我认为解决比较好的方案之一是deformable,通过局部密集采样方式,自适应其变化。 但是这用解决问题的方式带来的问题是,速度非常慢,且很难加速。
(二)分析
我们自己重新分解了一下deformable中学习的局部不规则9个采样点,可以把这9个点的变换分解成 中心点的偏移,整个矩形框面积的变换,以及局部形状的变换。 发现其中最核心的变化是矩形框的面积,而不是矩形框的形状和中心点。 这个也很好理解,矩形框的面积改变的是感受野,矩形框的边缘是感受形状信息。
换句话说,采样的矩形框自由度不需要那幺高(不规则),是个矩形就行。 什幺操作可以改变采样矩形框且不影响速度呢? dilation就行。 这个是我们做的第一步分解,使得局部操作可以加速。
但是第二个问题是,这种局部的密集采样还是非常慢的。 能不能舍弃这种做法? 空间的密集目的是想特征抽取的更好,也就是output特征更好。 但是output特征除了在采样数据那边做,也可以在卷积核上做。 为了速度,我们做了第二步分解,我们把空间的多样性,分解到卷积核上。 具体做法是,分组。 不同的分组,采用不同的dilation。 最后的特征,对于每个ROI而言,也能看到更大的特征。
(三)浮点的dilation + group
找到了这两步,基本就能解决要解决的问题,局部ROI需要更丰富的特征并不增加耗时。 具体的解法可以看论文。 试验结果
速度几乎不变,性能提高1.5%以上
(四)进阶版
实际细想就是两个超参,每个卷积的dilation数值和group的分组数。 学习的方式难免有局限,得益于强大的搜索算法,我们直接搜索了这两个超参,也算是比较早直接在channel 级别搜索的论文,具体可以看我们的NIPS论文。
channel级别的超参搜索
(五)展望
一切的前提都是速度不变情况下,如何解决问题。 这个scale问题还远远没有解决,最近我们也有了新的解法,近期也会放出来。 当然除了这个问题,检测还有很多问题。 比如检测和分类的NAS有何不同? 硬核问题太多了。
Be First to Comment