论文部分内容阅读
图像在当代人类生活中的重要性是有目共睹的,为了在大量图像数据中提取出更有价值的区域,众多显著区域检测模型被提出。以往的众多显著模型利用颜色,纹理等低级特征确定显著区域,该类方法在目标与背景相似时具有一定的局限性。而以往存在的大多数利用深度神经网络的网络模型结构复杂,提升效果不够明显,针对此问题本文对网络结构的简易性和有效性进行了研究,提出利用结构简明,效果优良的网络模型确定显著区域。随着时代的进步,多幅图像之间的协同显著检测模型被提出,以往的协同显著模型利用低级特征在全图范围进行计算,在背景复杂时会降低结果的准确性,针对此问题本文对如何缩小显著检测范围,更好表征超像素的特征进行了研究,提出一个利用高级和低级特征对在目标检索框内的超像素进行协同显著值的计算,具体工作实施如下所示。本文提出了一种基于多尺度特征融合网络的RGB-D显著区域检测模型,该模型在结构简洁的基础上达到了优良的检测结果,其由三部分组成,分别是多尺度卷积神经网络,多尺度反卷积网络,以及融合优化。将多尺度卷积神经网络最后一阶段的输出图像作为多尺度反卷积网络的输入,反卷积网络通过与卷积网络对称的结构,逐步恢复最后一阶段的图像尺寸能更好的保存图像的信息,减少图像信息的流失。最后将多尺度卷积网络的侧边输出和反卷积网络的输出利用本文的三阶段融合方法进行融合得到最终的显著图,此融合方法能够放大高层阶段及低层阶段输出的优势,得到优良的RGB-D显著区域检测结果。本文提出了一种基于目标检索的RGB-D协同显著区域检测模型,该模型是首次在RGB-D协同显著检测领域提出使用目标检索定位显著目标。该模型对每张图像进行切割超像素,作为处理的基本单元,将优化后的初始显著图,以及RGB图像,深度图像合并输入到模型中,通过目标检索产生目标检索框,将候选框内的超像素筛选出作为协同显著种子超像素,再利用颜色,深度,以及VGG-16网络第二层的特征进行初步协同显著值的计算,低级与高级特征一并使用增加了模型的鲁棒性,最后利用本文的传播方法对初步协同显著图进行传播优化,得到最终的协同显著图。本文提出的基于多尺度特征融合网络的RGB-D显著检测方法模型在三个公开的RGB-D数据集上与四种经典算法进行了对比评估,通过实验数据对比可以看出本文方法的表现要优于经典算法。本文提出的基于目标检索的RGB-D协同显著区域检测模型在标准协同数据集RGBD Cosal150上进行了实验,与其他四种主流方法进行了实验效果比对,本文的模型效果要优于其他几种模型,可以说达到了较为优异的结果。