one-stage和two-stage目标检测算法( 六 )


one-stage和two-stage目标检测算法

文章插图
2.6 R-SSD
2017 年首尔大学提出了 R-SSD 算法,解决了 SSD 算法中不同层map 都是独立作为分类网络的输入,容易出现相同物体被不同大小的框同时检测出来的情况,还有对小尺寸物体的检测效果比较差的情况 。R-SSD 算法一方面利用分类网络增加不同层之间的map 联系,减少重复框的出现;另一方面增加中map 的个数,使其可以检测更多的小尺寸物体 。特征融合方式采用同时利用和进行特征融合,这种特征融合方式使得融合后每一层的map 个数都相同,因此可以共用部分参数,具体来讲就是boxes 的参数共享 。
one-stage和two-stage目标检测算法

文章插图
2.7 DSSD
为了解决 SSD 算法检测小目标困难的问题,2017 年北卡大学教堂山分校的 Cheng-Yang Fu 等提出 DSSD 算法,将 SSD 算法基础网络从 VGG-16 更改为 -101,增强网络特征提取能力,其次参考 FPN 算法思路利用去卷积结构将图像深层特征从高维空间传递出来,与浅层信息融合,联系不同层级之间的图像语义关系,设计预测模块结构,通过不同层级特征之间融合特征输出预测物体类别信息 。
DSSD 算法中有两个特殊的结构: 模块; 模块 。前者利用提升每个子任务的表现来提高准确性,并且防止梯度直接流入主网络 。后者则增加了三个 Batch层和三个 3×3 卷积层,其中卷积层起到了缓冲的作用,防止梯度对主网络影响太剧烈,保证网络的稳定性 。
one-stage和two-stage目标检测算法

文章插图
2.8 DSOD
2017 年复旦大学提出 DSOD 算法,其并不是在 mAP 上和其他检测算法做比较,看谁的算法更有效或者速度更快,而是从另一个角度切入说明 fine-tune 和直接训练检测模型的差异其实是可以减小的,也就是说训练一个检测模型可以不需要大量的数据和预训练好的模型 。这是由于预训练模型的限制导致:迁移模型结构灵活性差,难以改变网络结构;分类任务预训练模型和检测任务训练会有学习偏差;虽然微调会减少不同目标类别分布的差异性,但深度图等特殊图像迁移效果差异较大 。
SSD 算法是在六个尺度的特征图上进行检测,将这六个检测结果综合起来,DSOD 算法则则根据的设计原理,将相邻的检测结果一半一半的结合起来 。DSOD 算法是基于 SSD 算法基础上做的修改,采用的特征提取网络是。采用 Dense Block 结构,能避免梯度消失的情况 。同时利用 Dense结构,也能大大减少模型的参数量,特征包含更多信息 。设计 stem 结构能减少输入图片信息的丢失,stem 结构由 3×3 卷积和 2×2 的 max pool 层组成,其还可以提高算法检测的 mAP 。
one-stage和two-stage目标检测算法

文章插图
2.9 RON
2017 年清华大学提出了 RON 算法,结合 two stage 名的方法和 one stage 方法的优势,更加关注多尺度对象定位和负空间样本挖掘问题 。
RON 算法通过设计方向连接结构,利用多尺度表征显著改善各种多尺度物体检测,同时为了减少对象搜索空间,在卷积特征图创建prior 引导目标对象搜索,训练时将检测器进行联合优化 。并通过多任务损失函数联合优化了反向连接、 prior 和对象检测,因此可直接预测各种特征图所有位置的最终检测结果 。
one-stage和two-stage目标检测算法

文章插图
3. 总结
【one-stage和two-stage目标检测算法】随着深度学习技术在图像各领域的研究深入,出现越来越多的新理论、新方法 。two stage 的方法和基于回归思想的 one stage 方法两者相互借鉴,不断融合,取得了很好的效果,也为我们展示了一些未来发展趋势: