论文部分内容阅读
基于视觉信息的移动机器人自定位是机器人自主导航的关键技术之一,其难点在于如何提高视觉系统的鲁棒性,以适应变化的自然环境,如何从单个摄像头准确恢复深度信息,以确定机器人自身位姿,以及如何提高算法实时性,以满足机器人自身运动的快速性和灵活性。本文对该问题进行了深入研究,旨在构建一个完整的视觉定位系统,使用单个摄像头采集场景图像,并实时计算相机相对参考路标的三维姿态。首先,本文回顾和总结了现有的视觉定位和导航算法,提出了单目摄像头实时定位算法的体系结构。该结构从视觉和图像处理的角度出发,结合了基于不变特征的目标识别、特征跟踪和位姿估计算法。算法先识别场景中的视觉路标,接着实时跟踪已识别路标,同时计算摄像头相对路标的三维位姿。此外,算法充分考虑了三个模块之间的内在联系,通过并行计算,最大限度提高了实时性。其次,本文提出了Harris-SIFT特征提取算子,分析了算法原理,指出了它相对SIFT的性能改进和优点。接着,本文详细介绍了基于Harris-SIFT的目标识别系统,包括数据库的建立、特征提取、近似最近邻居匹配、一致性检验、识别评估。该目标识别系统具有较好的鲁棒性、准确性和实时性,是视觉定位的核心,保证定位可以在变化的自然环境中可靠运行。然后,本文对跟踪和定位算法进行了研究,分析了识别和跟踪相结合的可行性和意义,阐述了双线程并行计算的设计思想和具体的实现细节。而后,本文介绍了共面POSIT位姿估计算法的原理,以及与跟踪、识别算法的结合。其中,为了得到参考物体特征点的三维坐标,本文设计并使用了逆透视成像模型,需要对摄像机进行标定。最后,在上述研究的基础上,本文通过多个实验验证了算法的性能,包括Harris-SIFT与同类特征提取算子的比较,自然环境下的目标识别和图像检索,这些实验表明基于Harris-SIFT的目标识别算法鲁棒性较强,准确性较高,实时性较好。此外,本文使用单个手持USB摄像头采集实时视频流,并运行视觉定位算法,检验定位性能。结果表明,该算法可以同时快速识别场景中的多个自然路标,并实时输出相机相对跟踪的3D位姿,且在定位精度较为可靠,圆满实现了设计要求。