论文部分内容阅读
高速、高精度视觉感知技术是未来无人驾驶的发展的必由之路。深度学习方法在无人驾驶场景视觉检测与识别上有其独特的优势。当前,深度学习理论已经广泛地应用于驾驶环境障碍物和车道线的检测识别与语义分割、行人与车辆意图预测、交通监控、驾驶员状态监测以及多传感器信息融合等领域。在众多的应用领域中,快速、高精度的驾驶环境障碍物检测与识别及道路语义分割是实现未来安全无人驾驶的先决条件。本文首先分别介绍了基于Windows和Ubuntu操作系统的深度学习算法框架搭建,并深入分析了深度学习方法中的各类典型数据集、网络结构和数值优化方法。在此基础上,本文利用Tensorflow深度学习框架,将端到端的YOLOv3算法应用于自动驾驶场景的障碍物检测与识别。不同于区域建议的方法,该方法将目标检测和识别问题归结为回归问题,仅需要使用单一的网络对所获取图像做一次评估就能够获取图像中目标物的边界框和类别。因此,其检测和识别速度较快。然而,该方法相比于区域推荐类方法,也存在一定的弊端。其定位精度较差,且其在目标物较小、目标物相距较近的情况下检测效果较差。实验证明,该算法能准确地识别各类自动驾驶环境中的障碍物,其检测和识别效率依赖于系统的硬件环境。进一步,本文基于KITTI数据集训练端到端的全卷积神经网络VGG16-FCN8,实现了道路像素级的语义分割任务。该算法将VGG网络的全连接层替换为全卷积网络FCN8,从而能将VGG16预测的结果还原成图像。该算法对所辨识图像的大小没有具体尺寸要求。但由于本文未对车载行车记录仪镜头的畸变参数进行标定,所得语义分割结果存在一定噪声。实验结果显示,文中所述的方法能有效地将图像中的道路和非道路像素区分开,算法中选用的Adam数值优化方法能使损失函数快速、光滑的收敛到极小值。本文所介绍的视觉算法都是基于深度卷积神经网络框架,可以有效地支撑无人驾驶场景中的视觉感知和识别技术。然而,无人驾驶的传感系统不仅仅只包含视觉,还有激光雷达、毫米波雷达、GPS、超声波雷达、惯性导航系统等。要想为无人驾驶汽车提供安全的感知系统,需要进一步研究如何利用智能算法融合各类传感器的信息。