论文部分内容阅读
基于视觉的同时定位与建图技术(Simultaneous Localization and Mapping,SLAM)是通过相机采集到的图像获取特征数据构建移动机器人所处场景的三维模型并确定移动机器人的位姿。然而视觉传感器本身缺陷导致其无法处理图像特征信息缺失的问题及其在动态的场景下无法采集有效图像,同时采用单目相机定位时还存在尺度不确定性以及采集数据频率过低的问题,这些问题导致了视觉SLAM系统无法进行精确的定位导航。惯性测量元件(Inertial Measurement Unit,IMU)可以机器人三轴的加速度和角速度,其采集数据的帧率很高且无需依赖场景外部信息,这些特性恰好弥补了视觉传感器的缺点。因此,为了实现对移动机器人精准定位,本文结合视觉传感器和IMU各自的优势,设计了一种基于单目视觉和IMU融合的定位方法。本文根据视觉SLAM系统的基础理论,建立了相机成像模型,根据ORB特征进行特征点提取的方法进行跟踪,通过图像特征点匹配信息获得相机在运动估计的重投影误差。通过对IMU数据的预积分解决IMU的频率和图像帧频率不一致的问题,并获取了预积分估计的残差。采用紧耦合的方式将相机的重投影误差和IMU预积分残差通过因子图建立其约束,利用非线性优化方法获得移动机器人的位姿信息。为了消除位姿估计过程中不断产生的累积误差,本文还提出了一种基于感知哈希算法的回环检测方法,通过比较当前关键帧和之前关键帧的哈希序列,来判断是否可能存在回环,再通过特征匹配进一步确认回环的正确性,确定回环信息后,对系统的全局位姿进行回环校正,从而消除累积误差。最后针对提出的视觉和IMU融合的SLAM方法在Euroc数据集上进行了实验。实验结果表明基于感知哈希算法的回环检测方法能够有效的减少定位的累积误差,且具有较好的实时性。同时,本文提出的视觉和IMU融合的定位算法的精度要优于主流视觉惯性方案OKVIS。