论文部分内容阅读
立体视觉匹配是计算机视觉和非接触测量研究中最基本的关键问题之一,该技术使得通过像点获取距离信息,实现三维立体再现成为可能,但同时也是最难彻底解决的问题。本文对双目视觉的立体匹配相关理论与算法进行了细致的研究,在区域相关基础上,结合特征点和轮廓等全局结构信息,尝试对不同需求建立相应的算法,并通过对真实图像的实验证明了算法的可行性和有效性。 灰度相关直接用图像灰度进行匹配,没有考虑场景物体之间的空间和结构相关性,使得结果对结构、光照、纹理和畸变十分敏感。本文提取边缘点作为初始匹配集,采用高斯核径向基函数网络模式,误差函数包含特征的训练误差和非特征点估计视差的平滑条件。利用梯度下降法来估计最优全局视差分布。 本文发展了Barnard算法,利用边缘特征点的高可靠性,提出边缘引导的匹配算法。特征点限定了非特征点的有效视差范围。在视差空间值的迭代更新过程中,充分考虑匹配点邻域支持区的视差分布情况和相对可靠的边缘特征点,非特征点的支持区窗口形状也根据特征点的分布而有所不同。这样,降低了对视差空间中匹配值估计的不确定性。另外,结合视线冲突的检测和匹配阈值对遮掩区进行检测和标记,视差的唯一性和连续性约束得到了体现。 针对匹配的实时性要求,本文给出了一种快速算法。利用LoG算子生成稀疏的边缘点初始视差图。对于非边缘点以初始视差图为约束,构造自适应窗口。对得到的相容匹配序列,利用时间规整算法中的动态规划法寻找一条最佳的匹配路径。根据回溯得到整体高密度视差图。极大缩小了匹配搜索空间。实验结果表明该算法具有较高的运行效率。 边界特征点主要是一些离散的孤立的点,算法在处理过程中很难把握场景的全局信息和结构。对于自主车避障和目标跟踪的领域,不一定要得到全部像点的深度信息。本文引入区域的边界规则度来过滤过分割图像。根据分割区域的空间位置关系等约束条件,通过设定的代价函数来计算图像间对应区域的不变矩相似度,据此对分割区域进行匹配工作。该方法不需要对目标作先期了解和建模,在检测人工目标的时候具有通用性。