论文部分内容阅读
近年来,智能交通系统应用越来越广泛,道路旁安装的众多监控摄像头记录了大量的交通场景。如何从这些交通监控视频中分析提取出交通场景的语义,是构建智能交通系统的核心环节。车标识别、车辆颜色识别和车辆运行速度检测是面向智能交通场景底层语义提取的三个关键性问题。针对上述问题,本文设计并实现了一套面向智能交通场景的底层语义提取系统。在车标识别方面,本文首先利用车标和车牌之间的相对位置关系对车标进行粗定位,随后采用形态学方法对车标进行精确定位;然后采用多特征融合、PCA降维、BP神经网络训练的方法进行车标识别。在车辆颜色识别方面,本文首先利用GrabCut算法分割车辆前景,然后对车辆图像进行基于亮度信息的对比度增强、高光检测与去除,降低光照对颜色识别的影响,并设定了一套基于自组织映射神经网络的颜色识别方法。在车辆速度检测方面,首先使用高斯混合模型对进入检测区域的运动车辆进行检测,随后对运动车辆进行跟踪,获取车辆在视频中的位置和大小信息;针对缺乏摄像机内外部参数的问题,本文提出了一种基于积分的车速检测方法,通过建立视频图像与现实空间的映射模型,在不依赖摄像机参数的情况下计算出车辆实际运行速度。实验表明,本文设计并实现的系统具有较高的识别准确率和良好的实时性