论文部分内容阅读
图像去雾是近些年在图像处理领域的一个研究热点,在智能交通,军事,监视系统,遥感系统等领域中都有着极为重要的应用价值。目前,针对图像去雾的方法主要有两种:一种是基于图像增强的算法,另一种是基于图像复原的算法。图像增强的方法不需要物理模型,主要是通过增强对比度来突出图像的细节部分,算法实现相对简单,但是去雾效果却没有图像复原的算法好。大部分基于图像复原的算法去雾效果很好,可算法的复杂度很高,计算量很大,实现过程耗时很长,暗通道假设算法就是这样的一种算法。目前,暗通道假设去雾算法的研究重点大多集中在去雾算法和图像的去雾效果上,对算法加速的研究还很有限,而这种算法由于其具有去雾过程耗时很长的缺点,难以得到工程上的广泛应用。针对这种现状,本文把研究重点放在算法的加速上,通过利用OpenCL并行编程规范和GPU并行构架实现对暗通道假设算法的并行加速,为未来的工程实现打下基础。首先,本文研究了并行计算技术。通过对目前并行实现方法和并行设备的分析、对比,总结出并行计算流程和目前并行架构的优缺点,继而又对GPU架构进行分析总结,为后续的算法并行实现做好铺垫。然后,本文详细的分析了暗通道假设去雾算法。这种算法以大气物理模型为基础,大气物理模型主要包括衰减项和大气光项。在以上理论研究的基础上,导出了雾天图像的降质模型,针对于降质模型中的大气光A和透射率t(x)这两个参数,给出了暗通道假设去雾算法求解过程,并对细化透射率t(x)的几种方法进行了对比分析,总结出适合并行实现的方法和求解去雾图像的系统函数。最后,本文研究了OpenCL的编程规范与架构,在此基础上,详细的分析了暗通道假设去雾算法中每个步骤的并行度,对不适合并行拆解的步骤进行了改进与优化。利用OpenCL C对算法进行了并行实现,并通过对GPU中寄存器的优化使用,加快算法的实现速度。