论文部分内容阅读
视觉跟踪是计算机视觉研究领域中的一个重要的研究领域。到目前为止,对于运动目标跟踪的研究已经取得了很大的成果,人们提出了许许多多可用于视觉运动目标跟踪的算法,这些算法在目标物的表示方式、图像特征的提取以及目标物的运动、外观模型的建立方法等各不相同。并且相关系统也在实际应用中取得了不错的效果,但是很多现有的跟踪算法都是在跟踪开始之前就构造一个用于表示目标物体外观的模型,并通过其不变的特征来应对由于光照条件、位置以及视角等因素引起的物体外观变化。事实证明,这一类算法无法适应实际跟踪过程中的诸多不确定性因素,在很大程度上会影响跟踪的性能和效果。为了应对跟踪过程中目标物体的外观变化,我们通过目标物体的外观的特征空间来表达目标物体,并使用增量式子空间方法对特征目标物体的特征子空间进行持续且高效的更新。另外,本文通过一种类似于Condensation的方法根据图像序列中当前帧的跟踪结果对下一帧图像中目标的位置进行预测,选取一定量的的样本粒子,从而对图像序列中目标物体状态变量的后验概率分布进行传播并最终确定跟踪结果。实验证明,本文算法能够很好的应对目标物体的旋转、平移以及外界光照条件发生变化所引起的物体外观变化问题。本文提出的基于增量式子空间学习的运动目标跟踪,是在基于Condensation的变种算法的基础上,采用增量式主子空间方法对特征目标物体的特征子空间进行持续且高效的更新,能够有效的应对复杂的跟踪环境。而且该方法不拘泥于特定的设备要求,检测效果好,易于实现。