论文部分内容阅读
随着对地观测和遥感成像技术的飞速发展,遥感卫星的数量正在急剧增长,成像质量大大增强,提供了海量的高分辨率、细节丰富和纹理清晰的高质量可见光遥感图像。因此设计实现精确、高效的遥感图像目标自动监测提取算法不仅具有重要的理论研究意义,同时在港务管理、海上救援、海域监控,以及城市规划、重点军事目标检测等民用和军事领域均具有广泛的应用价值。然而,传统基于遥感图像自动目标提取方法由多个独立的“任务模块”分步执行得到最终结果,无论是在处理性能还是处理效率上均难以满足实际应用的需求。当前,在大数据和强大计算能力的支撑下,深度学习成为当下解决图像理解等问题最有效的机器学习方法之一。基于深度学习的高分辨率可见光遥感图像自动提取方法日益成为目前遥感图像解译研究的热点,以多层神经网络为核心的深度学习方法,以其优良的特征学习(feature learning)能力,显示出相比传统方法的显著优势。但是不同于自然近景图像,可见光遥感图像中的目标往往尺度多样、朝向各异、排列密集,同时各个目标之间的纹理、形状容易相互干扰,且易收到具有相似特征的人造地物等复杂背景的影响。同时,深度学习严重依赖于大量干净标记(clean labels)的样本,然而,获取这样的标记数据耗时耗力,特别对于遥感图像标注往往需要判读专家的参与,标注成本高昂。大量全监督数据的不足严重制约着深度学习技术在遥感图像自动目标提取方面的深入应用。针对上述亟待解决的问题,本文针对复杂背景下遥感图像舰船、建筑目标自动提取,充分挖掘遥感图像自身的领域信息,研究领域信息辅助下遥感图像自动目标提取的深度学习方法,降低对大量标记样本的依赖,提高目标提取性能。具体地,本文主要的创新工作有:(1)提出了一种旋转全卷积网络的多朝向、多尺度舰船检测方法。现有基于深度卷积网络的目标检测方法通过正置矩形框进行目标定位,然而在遥感图像中,舰船目标往往朝向各异,且密集和并排分布,正置矩形框很难对密集并排分布的舰船逐个提取。因此本文针对遥感图像中舰船目标的密集、有朝向排布的特点,提出采用旋转矩形边界框(rotated bounding box)来描述目标位置和区域,并设计了一种多尺度特征融合全卷积神经网络来预测目标的旋转边界框和区域。该方法采用全卷积网络直接回归目标的边界框、朝向角以及目标区域掩膜(mask),将目标区域掩膜作为一种额外的监督信息可以引导网络学习更好的目标特征表示。同时,刚方法利用卷积网络特征图(feature)感受野(receptive field)的不同和多尺度性质,将多尺度卷积特征融合,增强了对遥感图像多尺度目标的检测能力。实验结果表明,本文提出的算法能够很好地提取密集、并排分布舰船目标,大大提高了检测性能与定位精度。(2)针对难以获取遥感图像像素级干净标记的数据以训练深度神经网络进行建筑区域提取的问题,利用地理信息系统(Geographic Information System,GIS)的建筑脚印(footprint)信息作为辅助标记来训练建筑区域提取的全卷积神经网络。由于GIS数据与遥感图像的配准误差、不完备性等,由GIS数据提供的标记不是非常准确,含有大量噪声,为此本文提出一种基于噪声标记转移概率的全卷积神经网络模型,实验结果表明提出转移概率的全卷积神经网络模型对标记噪声具有一定的鲁棒性,在实现建筑目标高效提取的同时可以显著降低对遥感图像精细化标注的依赖。