论文部分内容阅读
随着在线数字图像和视频数据等数字资源的持续增长,图像/视频搜索已经成为一个非常活跃和具有挑战性的研究领域。与以往相比,排序算法不仅要能够处理庞大的数据量,更应该满足用户的搜索意图,提高其搜索体验。然而,现有的搜索引擎大多是基于文本信息的,并不能很好地满足用户的需求,因此,如何在利用文本信息的基础上实现基于视觉内容的网络图像的重排序这项技术成为迫切要求。针对以上问题,本文研究了两种基于内容的网络图像的重排序算法:其一,基于改进的Ranking SVM的主动重排序算法。该算法针对重排序对象的特点,引入了对Ranking SVM方法的改进,设法把原始排序结果作为表示图像的特征之一。另外,结合了主动学习的思想,以此弥补监督学习算法中需要大量人工标注的不足。最后,我们对实验结果进行了横向和纵向比较,经比较证实,该算法对原始排序结果有一定的改善作用。其二,基于视觉原型的图像重排序算法。该算法是一种自重排序,其最大的特点是不依靠外部知识,仅仅通过挖掘图像本身的信息来实现图像的重排序。本文依据“词袋”特征的原理,由主成分分析法出发,从“词袋”特征中获取表示视觉原型的信息,最后结合了距离的概念,得到了一个基于视觉原型的重排序模型。由实验验证结果可知,该算法原理简单、计算量小、适用性较好,能够提升原始搜索结果的排序性能。