论文部分内容阅读
运动车辆检测被公认为是智能车辆系统研究和智能交通系统领域中的关键技术和环节之一。运动车辆检测能够提供智能车辆系统和智能交通系统所需要的车辆目标的位置、大小等基本信息,也是运动车辆跟踪及各交通参数计算等后续研究的重要基础。运动目标检测的实质就是对含有目标车辆的图像进行分割和定位,是对其视觉场景进行分析、理解和预测的关键工作。近年来国内外的学者和科研人员对车辆目标检测技术与应用给予了高度的重视。在智能交通系统的视频监测应用中,由于其摄像机大多是固定在道路上方进行拍摄,所以其拍摄得到的序列图像往往具有相对静止的背景,这在交通视频监视中就为车辆检测工作提供了便利。但是,场景中光照条件的变化、摇动树木的影响以及相机的微小振动而产生的偏移等这些动态的背景目标往往会被检测为运动车辆,这严重地影响了车辆检测的精度。而在智能车辆系统应用中,摄像机安装在车辆的顶部,摄像机随着车辆在运动。因此拍摄的视频中,交通背景和前方车辆都是动态的,一般的运动车辆检测方法如背景建模、光流法等方法无法适用,这给车辆检测问题带来了新的挑战。因此针对不同视频车辆的复杂环境背景下,研究有效的运动车辆检测技术有利于进一步完善和发展智能交通系统和智能车辆技术,具有重要的现实意义。 本文针对智能交通系统和智能车辆系统中运动车辆检测研究所面临的问题,从车辆具体特征的角度出发,通过对高斯混合模型的理论探索与机器学习方法中的实践研究,提出适合于不同视频模式的运动车辆目标的检测算法、技术和方法,具体研究工作内容如下: (1)针对传统高斯背景模型仅仅针对单个像素点在时间序列上的分布问题,提出了一种基于空间邻域加权的高斯混合模型运动车辆检测算法。通过定义空间邻域信息函数和设计符合归一性的空间信息加权类概率,使得该方法同时考虑到像素点空间和时间上的连续性。通过不同场景下的实验验证了该方法的有效性。 (2)针对基于Haar特征和AdaBoost学习方法对车辆进行检测后,总会有一定的非车辆目标被错误检出,提出了一种基于尾灯特征的校验法。该方法首先将RGB 颜色空间转为YCbCr空间,然后对Cr特征图进行直方图阈值分割,最后提取了颜色区域特征,并用来进一步进行车辆粗检测的校验,实现了车辆目标的精确检测。 (3)针对现有卷积神经网络方法用于车辆检测时,特征学习和检测预测分量以及输入检测图像大小必须是固定的,提出了一种全连接卷积神经网络的构建。该方法实现了特征学习和检测整合在同一框架下,并进行车辆的检测,从实验结果来看,该算法对不同行车状态,在不同交通环境下均取得了较高的检出率和较低的误检率。 (4)提出了一种基于主动学习的AdaBoost算法和颜色特性校验的车牌定位方法研究。通过对样本筛选,以及分类器的动态学习的过程,最终产生一个用于车牌粗定位的强分类器,然后提出了一种基于边缘颜色对的车牌验证方法,对候选区域进行验证,实现车牌区域的精确定位。实验表明了该方法的有效性。