论文部分内容阅读
近年来,随着大量成像设备应用于人类的生活和工业生产中,多聚焦图像融合在图像处理中扮演着越来越重要的角色。受光学镜头景深范围的影响,光学镜头无法一次获取目标场景的全场景清晰图像,需要对不同部分进行多次采集,得到多幅聚焦不同区域的源图像,整合这些源图像成一幅全场景的清晰图像是多聚焦图像融合需要解决的重要问题。本文针对神经网络的深度学习多聚焦图像融合算法展开了深入研究,主要研究内容如下:1.基于多聚焦图像融合的原理和实现过程进行了分析与研究,并在像素级图像融合层次上进行了研究,分别针对变换域和空间域方法进行采用典型算法进行探讨,分析了各类算法适用的图像场景。研究了图像融合的质量评价方法和本文用到的质量评价指标,为后续算法的融合性能对照和比较提供理论依据。2.研究了基于有监督学习的神经网络多聚焦图像融合算法,构建了基于CNN的有监督图像融合算法模型,采用一种基于监督学习的全卷积神经网络图像融合算法,该算法将多聚焦图像融合视为像素点预测问题,通过监督学习训练全卷积神经网络,使网络能够对原图像中不同聚焦区域的互补关系进行学习,从而达到一张全局清晰的图像。通过仿真实验和数据分析,说明该算法各方面融合性能优于传统算法,但是也存在计算复杂、耗时过长等不足。3.针对有监督学习需要花费大量的时间和精力创建数据集,并且训练周期长等问题,提出了一种基于无监督学习的深度学习融合算法。首先,训练一个无监督的编解码器网络来提取输入图像的深层特征,然后利用这些特征和空间频率来测量图像像素活跃度并得到决策图。最后,应用一致性校验方法对决策图进行调整,得到最终决策图。通过采用16种融合方法的实验效果和数据分析,证明该方法在客观评价和主观评价方面均取得了较好的融合效果。