论文部分内容阅读
行人再识别(Person re-identification)技术是判断不同监控视频拍摄的图像中出现的行人是否属于同一行人的技术。行人再识别的研究难点在于拍摄的行人图像视角不同、光照变化大、背景比较复杂和图像分辨率低。首先本文针对传统数据集进行属性融合特征的研究,该特征描述符更具判别性。另外,摄像机拍摄的图像分辨率和视角等参考因素不同,部分数据集的识别准确率很低,因此本文对数据集的迁移学习工作进行了研究,并且考虑到单一的网络模型太过于简单,对图像描述不充分的情况,本文提出以融合模型为子网络的孪生网络模型。本文的主要贡献如下:1、基于属性融合特征的行人再识别。在特征提取之前,分别对行人图像进行行人前景分割和光照增强的方法,将底层特征LOMO-gradient(Local Maximal Occurrence-gradient)和属性特征结合进行行人再识别研究。首先,把每幅行人图像4个部分,分别提取LOMO-gradient特征,依次得到4个随机森林属性分类器。其次,分别对独立的、不同维度的属性子分类器进行训练和融合,生成一个21维属性特征的分类器,并把该分类器与属性关联校正机制相结合。然后,该属性分类器用来预测无标记的数据集上的行人属性,可以有效地降低人工标记的时间复杂度。最后,将从原始图像和前景图像中分别提取的LOMO-gradient特征与属性加权融合得到最终的融合特征。在VIPeR,PRID450S和GRID数据集的实验结果表明,该算法优于目前的行人再识别方法。2、基于融合模型和孪生网络的行人再识别算法研究。训练阶段,首先提出了一种基于ResNet50和VGG16网络层融合的深度学习模型F-CNN。对于得到的F-CNN融合模型作为孪生网络模型中共享权重的子网络,分别在行人再识别训练集上依次训练,得到训练模型,其中损失函数结合了验证损失和识别损失函数,该损失函数以softmax损失为基础。测试阶段,利用无监督迁移学习模型把得到的模型迁移到没有标签的数据集上,分别对测试集中的图像进行任意两幅图像之间的相似度比较以及行人身份标签的预测。其中,迁移学习的目标域数据集包括两个:GRID和Market-1501。本章的数据集有CUHK01,VIPeR,GRID,Market-1501和DukeMTMC,并在实验中分别取得不错的效果。