论文部分内容阅读
随着航空航天技术的快速发展,各种各样的卫星遥感影像层出不穷,高分辨率遥感影像已经成为人类快速实现全球或大区域对地观测的重要数据来源。然而,遥感图像的获取受杂波干扰较大且图像中目标轮廓模糊,同时伴随着遥感图像数据量的指数级增加,对遥感图像的处理技术提出了更高的要求与挑战。近年来,深度学习以其优异的算法性能被广泛应用于图像理解以及视觉分析等领域,它突破了传统计算机视觉算法结构的约束,为遥感图像的处理提供了新的方法。本文主要针对遥感图像的语义分割和SAR图像的变化检测问题进行研究和分析,使用全卷积神经网络实现像素级别端到端的分类,本文的重点包括以下工作:(1)本文针对高分辨率航拍图像的语义分割问题,建立了简化的SegNet网络(R-SegNet),通过编码-解码网络实现像素级的分类,编码网络提取图像特征,解码网络将特征图映射到原图大小,利用R-SegNet网络实现航拍图像的语义分割。为了进一步提高分割效果,采用以下三种策略进行实验研究:a)将R-SegNet编码网络中每个卷积块的特征信息与解码网络中对应卷积块的特征信息进行融合;b)考虑到高分辨率航拍图像中地物信息的复杂多样性,以及对小目标物体的识别效果,将6分类模型转换为6个二分类模型,分别对不同类别进行学习,得到分割结果;c)利用多分类器集成学习的优势,将上述不同模型的预测结果进行融合并给出最终的分割结果。实验结果表明,这些措施都有效的提高了图像的分割效果,能够比较准确地检测出航拍图像中不同类别的目标区域,获得了较高的分割精度。(2)本文将SAR图像变化检测问题转换为基于二分类的图像语义分割问题进行处理,把有监督的深度神经网络模型与无监督的SAR图像变化检测问题相结合,提出了基于全卷积神经网络的SAR图像变化检测方法。利用稀疏自编码器完成对差异图的特征学习,在提取特征信息的同时降低了噪声对图像的影响,并为后续有监督的语义分类提供训练样本,通过传统聚类算法得到初始分割结果,作为语义标签。基于全卷积神经网络的SAR图像变化检测主要是从无监督特征学习生成的特征图中进一步提取出更加抽象的语义特征,并利用这些特征来更加准确的检测出图像中变化部分和未变化部分。相比于卷积神经网络,该方法在提高精确率的同时简化了训练步骤,可以实现像素级别端到端的SAR图像变化检测。将本方法在不同的数据集上进行验证,均得到了理想的实验结果。