论文部分内容阅读
搜救机器人广泛应用于地震、煤矿和化学物品泄露等灾害场景的搜救工作,其利用自身携带的传感器对环境进行实时定位和地图构建(SLAM,Simultaneous Localization and Mapping),为救援工作的开展提供有效的信息支撑。目前,SLAM技术广泛应用于结构性环境下的无人驾驶领域,但在战场环境和地震废墟等非结构陌生环境中,其应用受到很大限制。一方面,在实际应用中,单一传感器受限于传感器性能,无法满足实际需求;另一方面,在搜救环境中,不稳定物体(如其他移动的机器人、搜救人员和环境中不稳定物体等动态目标)会降低定位建图精度和准确性。为此,本文开展基于激光视觉融合的SLAM技术研究,充分利用图像帧的色彩信息和激光点云的几何信息,专注于消除实时定位和地图构建过程中动态噪点,以提高定位建图的精度,从而提高搜救机器人的自主地形与环境识别能力,具有重要的理论意义和应用价值。首先,开展激光雷达与视觉传感器外部参数校准融合研究。本文创新性地使用多线激光雷达和5个视觉传感器进行外参校准与数据融合,采用基于棋盘的多特征点法,通过棋盘选取激光坐标系和视觉坐标系对应的特征点对,基于高斯-牛顿优化方法得到激光视觉系统的外部参数。而后,使用所得外部参数矩阵将图像数据融合到激光点云中,得到具有语义信息的彩色激光点云,完成激光视觉系统外部校准与数据融合。其次,针对动态噪点问题,进行基于深度学习语义理解和动态噪点剔除研究。着眼于动态噪点问题,对经典三维激光算法进行完善。使用深度学习方法,完成基于金字塔式神经网络的图像语义分割;用强鲁棒性的SURF(Speeded Up Robust Features,SURF)特征匹配方法完成动态目标背景补偿,基于差分帧完成动态目标检测;利用外参矩阵完成点云数据中动态噪点剔除,得到无动态噪点数据。再次,基于无动态噪点数据进行实时定位与建图的算法改进。为了提高定位建图的效率和实时性,本文选取融合数据中特征角点和特征平面点,基于特征线和特征面进行改进ICP帧间配准,得到粗略定位信息,根据定位信息进行地图构建和优化,得到三维点云地图和八叉树地图。最后,为验证改进算法的有效性,进行数据集验证和实地实验分析。使用PX4开源硬件、工控机、升降杆和激光视觉融合模块完成轮式搜救机器人搭建。基于公开数据集KITTI进行改进算法的有效性验证,完成在不同场景集下大量实验后,对结果进行定量和定性分析,改进算法在场景01、03、07、09的旋转误差为0.0120%、0.0185%、0.0115%、0.0151%,均小于原始算法的0.0135%、0.0193%、0.0121%、0.0160%,改进算法的平移误差在03、07、09场景下分别为2.0205%、0.9063%、1.8619%,均小于原始算法的2.1983%、0.9402%、2.0018%。实验结果表明,相较于存在动态噪点的原始算法,改进算法在多个场景下旋转误差和平移误差小,说明改进算法能有效剔除动态噪点,提高定位和建图精度。为了进一步验证算法的有效性,本文分别在室内环境和室外环境进行闭环实验,在室内场景中改进算法漂移为0.5168m,小于原始算法的1.0699m,在室外场景中改进算法漂移为1.66490m,小于原始算法的1.8272m,无论是室内还是室外,改进算法定位误差都比原始算法小,验证了改进算的有效性。结合数据集验证和实地实验分析结果,可以得出结论:改进算法能有效消除动态噪点的影响,提高实时定位和地图构建精度。