论文部分内容阅读
近十年来,人工智能技术和机器人产业发展迅速,在各行各业得到广泛的重视,应用潜力惊人。结合人工智能和移动机器人的智能移动设备需具有感知外界环境变化,以实现自主定位以及智能控制的能力。其中,基于传感融合技术的外部感知建模、环境感知自定位以及移动控制,由于其信息量丰富,系统潜在开发程度高,在过去十年中获得了大量的关注。伴随国内外研究人员在智能移动基础理论及实际应用的研究积累,自主导航的相关研究问题已经获得了可观的研究成果。特别是在提高移动机器人导航的定位精度提高方面,已有众多代表性的成果。然而,由于移动机器人在导航过程中,由传感器误差以及控制误差所导致发生的误差积累,其系统自恢复以及校正能力仍有待提高。移动机器人导航过程中,利用全局重定位实现积累误差的校正,是实现鲁棒自主导航的重要环节。对于上文所提及的全局重定位以及误差积累问题,本文深入探究其多种改善措施,进而提出了一系列建模感知和多模态信息融合的创新方法以及理论。由本文相关推导以及实验验证分析,本研究所提出的一系列方法相比于已有研究方法及理论,具有更高的全局重定位成功率和定位精度,更贴合实际场合的应用需求。本文从以下四个角度进行了自主导航的相关研究,并以此进行具体论述:在环境建模以及感知的问题上,本文提出了一种适用于视觉-激光雷达传感融合的多模态表达方式,利用激光雷达的稳定几何特征反馈以及稠密数据分布,构建具有环境几何信息的占据栅格环境表达形式,从而实现高精度的局部定位跟踪;同时,利用所采集的图像信息,构建环境表达关键帧集合。从而构建具有代表性视觉信息的环境拓扑表达,实现区别于几何特征栅格地图的全局重定位能力改善。进一步地,将该两类环境表达形式进行融合,满足多种传感融合下的高精高速全局定位算法对环境表达的要求。基于所建立的多模态环境表达,基于视觉信息实现机器人全局定位。并提出一种基于关键帧全局描述符聚类算法的快速图像检索机制。区别于已有的图像匹配技术,本文提出了基于关键帧聚类的匹配算法,利用K-Means算法对所采样关键帧的图像全局描述符实现聚类,从而利用聚类结果减少关键帧匹配过程的图像检索计算次数,降低整体算法耗时。同时,基于该类聚结果以及连续图像序列的相似性,减少因全局描述符提取过程中造成的图像信息丢失,进而提高关键帧匹配精度,改善全局重定位可靠性。在所提出视觉关键帧聚类以及匹配算法的基础上,对目前常见的图像全局描述符开展对比研究。首先基于深度卷积神经网络CNN,对图像全局描述符进行卷积提取。该方法区别于传统的手工设计全局描述符方法,由于CNN深度卷积神经网络具有多次卷积、大数据训练等特点,因此其提取得到的全局图像描述符具有图像信息的多尺度,多层次表达。利用该优势,可实现相比于传统描述符更加稳定的图像匹配以及拓扑定位。然而实验发现,该类描述符由于其算力要求较高,在移动机器人实时终端运行仍有待改善。同时,本章提出一种对视觉重定位算法进行比较分析的定量分析方法,为重定位算法的选择提供科学依据。最后,对于已经得到的全局重定位以及跟踪结果的验证,本文提出了一种基于移动机器人运动连续性假设的重定位触发机制。利用移动机器人在真实世界运动的各项连续性特征,通过对其多传感反馈的一致性检测,并结合连续图像序列在聚类匹配结果应具有的连贯性,实现局部跟踪误差积累的自诊断;同时,结合连续运动假设以及关键帧匹配得分,构建关键帧匹配置信度曲线函数,设定动态阈值,为全局粗定位环节构建可信度验证。