论文部分内容阅读
双目立体视觉是计算机视觉的重要研究方向,利用双目立体视觉可以获取三维场景的深度信息,已经广泛应用在军用与民用的各个领域。双目立体视觉的关键在于立体匹配,因此成为目前该领域的主要研究内容。本文重点研究了如何提高局部立体匹配算法在深度不连续区域以及低纹理区域的匹配精度,同时搭建了基于FPGA的立体匹配以及显著目标测距系统。研究了基于图像分割的局部立体匹配算法,针对算法在深度不连续区域的匹配精度不高以及对亮度差异敏感等缺陷,提出并研究了一种基于非参数变换和图像分割的高效聚合立体匹配算法。该算法以分割块作为支持窗口,以Census变换后的序列值作为匹配基元,采用本文提出的匹配代价函数进行代价计算。同时提出了一种动态视差范围矫正的技术,以邻域像素视差值为参考对当前像素的视差搜索范围进行调整,提高匹配效率。实验结果证明该算法能有效解决深度不连续区域的误匹配问题。研究了基于低纹理区域的局部立体匹配算法,针对低纹理区域缺少特征差异性,提出并研究了一种基于像素颜色空间和窗口位置的立体匹配算法。该算法首先对图像中的低纹理区域进行检测,然后采用本文提出的基于像素颜色空间的匹配代价函数进行代价计算,最后根据像素在聚合窗口中的不同位置分配相应的权值并将代价值聚合起来。实验结果证明该算法可以有效提高低纹理区域的匹配精度。搭建了一套以FPGA为图像处理核心的双目立体视觉系统。利用FPGA内部的并行计算和流水线设计,探索并设计了一种基于Box滤波的方法来实现Census变换;探索并设计实现了通过图像锐化和阈值分割来提取红外图像中的显著目标以及测距;设计实现了对左右视频流进行立体显示。实验结果表明,该硬件系统能够实时对图像进行立体匹配和显著目标提取,近距离的测距精度较高,系统的稳定性较好。