论文部分内容阅读
车辆是交通行为的主要参与者,获取准确有效的车辆位置和轨迹信息已经成为交通信息提取中的重要任务。交通监控设备的广泛应用,为计算机视觉在复杂交通场景下的应用提供了良好的平台基础。本文通过基于卷积神经网络的交通视频处理技术的研究,提出了一种基于Faster R-CNN和自适应核相关滤波的车辆检测跟踪算法,实现了高效率的车辆检测跟踪。论文主要工作如下:(1)通过对基于卷积神经网络的检测算法以及常用跟踪算法进行分析,结合交通场景的图像特点,提出了城市道路交通场景下基于视频的车辆检测跟踪算法基本框架。(2)设计了一种基于Faster R-CNN车辆检测的目标跟踪初始化系统。采用格式转换后的KITTI车辆数据集进行训练和验证,通过对不同网络结构的检测精确度和速度进行对比实验分析,选择了在城市道路环境下能够满足跟踪初始化实时性需求的网络基础架构。(3)基于一种自适应模型更新的单目标核相关滤波跟踪算法,以深度学习的检测算法结果为初始化,生成多个核相关滤波跟踪器,结合空间位置数据关联算法,实现了一种适合复杂交通场景下的多目标跟踪算法,该算法能够在一定程度上克服传统算法在目标遮挡时跟踪误差大的问题。本文在晴天、雾霾、黑夜等条件下采集城市道路交通视频,并对视频进行间隔帧提取,制作数据集,用于Faster R-CNN检测网络训练和测试;融合检测结果,在跟踪算法上进行实现,获取车辆的轨迹信息。文中方法在HP-Z640平台搭建的Caffe框架下调用Opencv 2.4.13对采集到的交通场景视频进行测试,在20像素的误差阈值条件下,与传统核相关滤波跟踪算法相比,白天和夜间单车跟踪距离精度分别提高了14.7%和12.9%,成功率曲线面积分别提高了18.0%和12.5%。在晴天、雾霾和夜晚条件下,对于多车检测跟踪进行实现,平均处理速度达到37.2 fps,能够实现实时的多目标检测与跟踪。