论文部分内容阅读
运动目标跟踪作为计算机视觉领域里的一个重要的研究课题,已经被广泛地应用到智能监控、视频导航、人机交互等领域。大量的研究工作使得运动目标跟踪方法在准确性和鲁棒性上得到了一定的提升,但光照变化、背景干扰、姿势变化等因素使得复杂场景下的运动目标跟踪仍是一个很有挑战性的研究课题。众所周知,鲁棒的外观模型是设计高性能跟踪算法的关键,而多特征融合和模板匹配是外观建模的重要方法。通过分析和研究当前运动目标跟踪中的目标表达和跟踪算法的不足,本文基于目标的运动历史信息,自适应融合多个特征来描述运动目标并自适应更新目标外观模型以捕获目标的外观变化,主要工作如下:(1)针对单个视觉特征不能很好描述复杂场景下运动目标的问题,提出了一种基于多特征融合和自适应模板匹配的目标跟踪方法。首先利用带时间片的运动历史图像方法(tMHI)对运动目标进行分割并得到目标的运动历史信息,然后分别用HSV颜色特征和边缘特征来描述目标。根据对应特征的候选目标与目标模板的相似度方差自适应地调整每个特征的权值,再根据融合策略计算目标模板与所有候选目标的距离,并利用双模板匹配的策略对目标进行定位。此外,实时更新在线模板并根据设定的阈值更新离线模板。最后基于挑战性的视频序列,通过与多种经典目标跟踪算法作对比,从定性分析、定量分析和自适应融合策略三个方面验证了本文所提算法的有效性和鲁棒性。(2)针对复杂动态场景下运动目标跟踪算法鲁棒性较差的问题,设计了一种鲁棒的多特征融合目标跟踪算法。为了避免特征权值的更新对场景的变化过于敏感,建立了一种更加合理的特征权值更新策略。同时,为了更好地适应目标及场景的变化,构建了一种更加有效的目标模型更新方式。最后通过大量的对比实验,验证了本文所提算法在处理背景干扰、遮挡、姿势变化等复杂场景下具有较好的鲁棒性与准确性。