论文部分内容阅读
环境感知是无人驾驶车辆至关重要的一步,是无人驾驶车辆其他模块的基础,其能力优劣直接决定着无人驾驶车辆的工作状况。基于深度学习的视觉多目标跟踪是目前环境感知中的关键技术,可对车辆周边目标进行稳定的跟踪,解决因目标检测不连续造成的震荡问题,并为车辆轨迹预测提供数据支持。论文依据“复杂道路环境协同感知与目标跟踪技术”项目中的目标跟踪板块,主要围绕基于深度学习的前方多车辆目标跟踪方法展开,针对目前主流的两种多目标跟踪方式进行研究。比较无人驾驶车辆研究常用数据库优缺点,分析数据库的应用场景及使用方式,确定各项训练所需要的数据库。分析多目标跟踪各项评价指标,在结合所研究方法与车辆多目标跟踪的特点的基础上,选择车辆多目标跟踪评价指标。针对基于检测的多目标跟踪方法,论文应用基准DeepSort模型,在原有模型基础上,优化深度余弦度量学习,将中心损失函数与交叉熵损失函数搭配使用来代替单一的交叉熵损失函数,增加分类精度。使用VeRi车辆数据集对基于CNN的重识别模块进行重新训练。检测模块使用yolo系列的Gaussian yolov3,使用经过处理的KITTI数据集进行二分类训练,提升目标检测精度。将检测器输出作为跟踪模型输入,相比于原模型,跟踪准确率以及精确度具有明显提升。针对融合单目标跟踪器的多目标跟踪方法,使用基准DeepMOT模型,在Seqto-Seq BiRNN网络的基础上,使用孪生网络中的SiamRPN++代替SiamRPN作为单目标跟踪器,选择参数更少,训练速度更快的GRU作为Bi-RNN的循环单元。训练数据集采用UA-detrac数据集,测试数据集采用EB检测器的输出以优化起始轨迹。变化后的模型输出结果与原模型相比,跟踪准确率以及精确度具有明显提升。