论文部分内容阅读
随着人工智能技术和汽车工业的飞速发展,以先进辅助驾驶(ADAS,Advanced Driver Assistance System)和自动驾驶技术为核心的智能车辆逐渐成为未来研究的重点领域和汽车工业发展的新方向。驾驶环境态势感知是智能车辆自动化系统的核心技术之一,也是车辆全局或局部路径规划及横纵向控制的基础,因此通过优化智能驾驶场景下环境感知任务中的核心算法来提升感知系统的准确性与鲁棒性对于车辆的决策控制和行驶安全等方面具有重要的意义。在智能车辆的前向环境感知方案中,基于全视觉传感器的系统配置方案相较于激光雷达方案或多传感器融合方案而言由于本身成本低廉、设备选型难度低、感知信息丰富等优势更适合作为量产方案。但传统的单目视觉感知算法基于的二维图像本身丧失了空间物理尺度导致算法在实现环境深度测量和障碍物运动态势感知方面难度较大,面对驾驶环境各种要素的高动态性和复杂性,现有算法普遍存在鲁棒性差的问题。为了解决单目视觉在深度感知任务中的固有缺陷,利用双目视觉技术,通过视觉测量方法与视差原理的有效结合来提升环境要素距离检测的精度和鲁棒性,同时将双目相机中左相机获取的图像数据用于实现其他感知任务。基于双目相机基础上提出的融合双目视觉的感知算法方案包含环境深度估计、目标检测、结构化道路车道标线检测三个核心任务,主要研究内容包括以下几个方面:1)环境深度估计任务中双目立体匹配算法对经典的SGM(半全局匹配)算法进行了优化,针对原始算法应用于驾驶场景中出现的弱纹理区域、遮挡区域、强曝光环境下匹配鲁棒性差的问题提出融合像素梯度和AD-Census变换的匹配代价计算方法,在视差精化阶段引入加权最小二乘滤波算法提高了原算法对复杂场景的适应能力。针对双目传感器测距精度随距离降低的问题,基于立体匹配得到的视差深度图提出一种仿人类驾驶员的模糊距离感知方法,同时融合目标检测任务输出的目标包围盒,采用3s原则实现对单目标的深度修正。2)目标检测任务采用深度卷积神经网络技术,针对复杂神经网络训练阶段因多种类目标数据不平衡导致的分类损失优化困难和检测精度差的问题提出一种基于任务分解机制的YOLO-Sign Net目标检测算法。该算法将语义种类复杂的交通流控制信号合并为统一的父类,使用YOLO-V3算法检出父类目标的位置,然后将父类目标感兴趣区域输入至单独设计的Sign Net交通信号分类网络完成对交通信号灯和交通标志子类语义的识别。通过任务分解实现了对复杂类别目标训练过程的单独控制以及子任务网络超参数的针对性调节和结构优化。3)车道标线检测任务基于LaneNet算法框架,将检测任务拆分为语义分割和车道线像素点实例特征聚类两个并行的子任务,并基于VGG16-FCN语义分割模型重新设计了车道线检测网络对原始基础网络ENet进行优化升级,从而提高了模型在复杂道路场景下的检测精度。在实例特征聚类阶段采用DBSCAN算法替换原始Meanshift算法,同时在聚类过程中通过引入骨架提取思路提升了聚类精度与速度,进而使得改进后的LaneNet相较于原算法获得了更为优异的性能。最后,在多种典型自动驾驶场景下对融合双目视觉的环境感知方法中提出的任务算法进行了实验验证,并设计了环境感知软件用于统一调度不同算法线程,实现信息交互。