论文部分内容阅读
显著目标检测算法获得图像中最重要的信息,使得后续的数据分析更为便捷。其目标是提取出图像中最吸引人注意的显著目标区域并分割出该目标的边缘。现有的显著目标检测方法在简单场景的图片中预测出较好的效果,但是对于一些具有低对比度或者形状复杂等属性的图片仍然检测不佳。主要体现在两个方面,一是对于显著目标的内部区域的整体预测不够精准;二是显著目标边缘及其周围的像素是较难预测的像素,边缘的预测还不够精细。因此设计出定位精准且边缘精细的显著目标检测模型是重点问题。在对显著目标检测领域的研究现状进行总结和分析的基础上,本文方法从多尺度特征融合以及边缘学习的角度出发,所提出的主要工作如下:(1)提出了基于膨胀卷积的多尺度聚合显著目标检测模型。注意到显著目标检测的基准网络较深层特征语义丰富但边缘模糊,较浅层特征细节丰富但背景粗糙。论文在VGG16架构下定义一个膨胀卷积块算子,将膨胀卷积与标准卷积相结合增强编码块提取的特征;引入深度反馈模块,将高层特征反馈到低层特征,该方式能够全面捕获全局和局部信息。论文利用交叉熵损失进行模型训练,在基准数据集上进行多个对比仿真实验,验证了所提多尺度聚合方式能够捕获到更加精准的显著目标位置。(2)提出了基于边缘学习的显著目标检测模型。论文分析了基于卷积网络的边缘提取方法,以及与显著目标检测的关联,通过双向特征金字塔共享引入边缘流,改进了多尺度聚合模型。并且定义了分层边缘损失,在多尺度聚合模型的每个侧输出和最后的融合图都提供了额外的边缘损失。在基准数据集上进行多个对比仿真实验,分层边缘损失的引导效果较优,使得模型预测出更加精细的显著目标边缘。