论文部分内容阅读
视觉目标跟踪通过对视频序列中的特定目标进行定位及识别,为智能化的人机交互应用提供了重要的技术基础。然而,在复杂多变环境中的人机交互过程中,如何保证目标跟踪的稳定性及实时性,一直是基于视觉目标跟踪实现智能化的人机交互方式的难点。因此,对面向智能人机交互的视觉目标跟踪课题的研究具有重要意义。本文从基础算法、算法优化以及算法应用三个层面对课题展开了研究,为基于视觉目标跟踪技术实现智能化的人机交互应用提供了一套完整的参考方案。基础算法:通过对已有的基于视频序列的目标跟踪算法进行研究与分析,提出了一种融合判别模型跟踪器和部件模型跟踪器的协作策略,进而提高复杂多变环境中视觉目标跟踪的整体性能。一方面,为了减少假阴性结果,利用经过检验的来自部件模型跟踪器的结果去更新判别模型跟踪器。另一方面,为了能够同时减少假阳性结果,选用置信度较高的来自判别模型跟踪器的结果去更新部件模型跟踪器。更有效的协作更新策略同时提高了跟踪的召回率和准确率,获得了具有竞争力的结果。算法优化:(1)由于复杂的背景变化往往会影响视觉目标跟踪器的性能,因此对基于特征匹配的背景消除策略进行了研究与改进,进而用于减少复杂背景对跟踪器性能的影响,并对方法的有效性进行了验证。(2)在背景消除策略用于提高视觉目标跟踪性能的有效性验证的基础上,利用RGB-D相机提供的Depth信息来消除复杂背景,进而更高效的达到减少复杂背景对协作策略跟踪器性能的影响的目的。同时,基于协作策略跟踪器获取的目标位置和Depth信息,对相机与目标间的相对位姿进行了估计,参照该相对位姿可实现智能的人机交互方式。为此,也将基于RGB-D信息的协作策略跟踪器用于半身人体跟踪及相机-人体相对位姿获取,为上层的一些智能人机交互应用提供了可选的基础技术。算法应用:利用基于RGB-D相机的协作策略跟踪器在半身人体跟踪中所获取的相机-人体相对位姿,以及基于PID控制框架,在速感科技(北京)有限公司研发的移动机器人平台ULBrain和移动机器人开发底盘Xbot上,实现了具备智能跟随功能的移动机器人系统“FOLO”,进而从具体应用的角度对本文视觉目标跟踪方法的实用性进行了验证。