论文部分内容阅读
交通街景作为一种全新的地图服务方式,从推出以来就被给予很高的期望和广泛的关注。交通街景真正实现了“人视角”,为用户提供更加真实、更加丰富的细节地图服务。交通街景中含有丰富的交通信息,分析交通街景中各类街景目标出现的位置及概率具有十分重要的意义。交通街景街景场景中背景复杂多样,且街景中目标种类多种多样,街景中各类目标相互遮挡情况非常普遍,使用传统的街景识别算法,很难做到精确的交通目标分类和交通目标定位任务。由于深度学习算法的成熟和计算机硬件性能的提升,处理交通街景视频或者交通街景图像已经取得了一定的成果,因此基于深度学习方法的交通街景识别成为当前的图像处理的一个主要研究方向。本文主要对基于候选区域的深度学习街景识别算法和基于回归方法的深度学习街景识别算法研究,以及针对实际街景场景中各类目标的分布情况进行研究,重新制作PASCAL VOC与INRIA混合数据集,分别设计与验证这俩类不同算法的运算速度与识别效率。由于本文使用的是PASCAL VOC数据集与INRIA数据集的混合数据集,所以本文使用k-means聚类方法重新确定锚框的大小和数量,通过实验证明其识别效率的明显提升。通过对混合数据集中的街景目标进行研究,根据街景特性需要重新把数据进行分类,主要分为静止类和运动类目标,而运动类在街景目标检测中是非常重要的组成部分。由于运动类目标在数据集中所占比例少与且像素点较少,所以单独把这一类目标裁剪,将像素点进行一定比例的放大,所占比例也进行一定的增加,重新增加到混合数据集中,可以提高模型的识别效率。本文改进原YOLO算法的损失函数。通过研究算法在街景目标识别过程中的原理,对该算法的边界框预测损失函数进行修改,采用变化率这种归一化的思想来代替原来的损失函数,让不同尺度的物体在损失函数中以相对误差率的形式出现。改进后的网络可以有效减少因输入图像尺寸不一因素而造成的误差。把原网络防止过拟合的Dropout操作直接删除,采用全卷积网络,利用1*1卷积层代替原参数臃肿的全连接层。改进后的网络结构具有更强的泛化能力,更好的鲁棒性,且改进后的网络能够在一定范围内加快神经网络在训练时的收敛速度,提高了模型的训练速度。本文通过在交通街景PASCAL VOC数据集与INRIA数据集混合数据集上进行实验和仿真。由于采用了上述一系列的优化与改进,相比于传统算法,改进后的算法在一定范围内提升了算法的运算速度与算法的识别效率,有效的解决了算法在运算速度和识别效率之间的平衡。在本文研究的街景识别场景下,改进后算法的运算速度和识别效率都达到了优化的效果。