论文部分内容阅读
运动目标跟踪时常面临一系列现实问题,比如场景光照变化、目标快速移动、目标被其它相似干扰物遮挡而在图像中缺失甚至消失、拍摄视频的摄像头抖动导致视频图像不清晰等等,使得其研究极富有挑战性。在双目立体视频中,深度信息作为物体在三维空间中额外维度信息,对运动目标跟踪有一定的帮助。然而,如果仅仅采用深度信息,当遮挡目标重现,跟踪算法将发生漂移。为了解决这个问题,我们把上下文信息应用到双目立体视频跟踪领域。 本文通过结合深度信息,将二维上下文扩展成为三维上下文辅助物,并且提出了一种基于上下文的深度驱动跟踪算法,可以较好地解决复杂背景下遮挡问题、背景干扰、光照变化等问题。本文算法分为四个阶段,分别是预处理、辅助物的筛选、辅助物预测目标和联合跟踪。经过时空约束筛选出的辅助物与目标具有强耦合关系,即辅助物与目标的运动方式相似。在预测过程中,通过这些辅助物的运动矢量信息结合在线混合高斯模型,对运动目标出现的位置进行投票。最后本文引入平衡因子融合辅助物的跟踪预测结果与基于深度驱动分割得到的运动目标范围。此外,本文还提出了基于深度组群的算法,用以计算运动目标在相邻帧之间的深度变化。深度组群是目标区域内所有深度信息,其中包括了主导深度和非主导深度。目标深度组群在相邻帧之间的差值统计峰值反映了目标的深度变化。 本文算法在5个极富挑战性的双目视频序列(包含11段视频子序列)上进行性能测试,并且与其它6个主流传统跟踪算法进行定性对比实验。该数据集包含了动态复杂相似背景干扰、多重遮挡(部分遮挡、完全遮挡和遮挡后的目标重新获取)、光照变化、目标尺度变化和形变等跟踪领域中极富挑战性的难题。实验表明本文算法具备了处理以上难题的能力,并且与其它主流跟踪算法相比跟踪结果更加鲁棒。