论文部分内容阅读
图像特征匹配是图像分析、模式识别和计算机视觉等领域的一个重要研究内容。由于同一对象所在的不同图像之间存在着尺度、旋转、视角、光照等差异,因此如何提取图像稳定的特征变得非常重要。在众多特征提取方法中,SIFT特征因对这些变换具有很好的鲁棒性,而得到了广泛的应用。但是,SIFT算法提取的特征维数是128维,在实际应用中需要很大的时间花费和空间存储。此外,SIFT特征匹配过程中,会漏检一些正确的匹配点,在匹配结束后,仍存在大量的错误匹配点。本文针对SIFT方法存在的这些问题进行研究与改进,主要工作如下: 针对现有SIFT方法特征维数高、匹配的正确率低和时间花费高等问题,我们提出了一种改进的SIFT图像匹配算法。我们的方法首先采用Lowe的SIFT检测子提取图像关键点,然后利用极坐标同心圆域生成关键点描述符,得到72维的特征描述符。在特征匹配阶段,我们使用更多的距离取代原先的匹配策略(最近邻距离和次近邻距离的比值),使得可以得到更多的正确匹配点。实验结果表明,改进的方法在没有额外的计算开销的情况下直接提高了针对尺度量化误差的鲁棒性,并且明显提高了匹配精度和计算效率。 针对改进的SIFT图像匹配方法在匹配结束后,仍存在大量的错误匹配点的问题,我们提出了一种基于边缘描述符的误匹配校正方法。该方法首先利用改进的SIFT算法提取特征并匹配,然后对初始匹配点集中的关键点重新描述,生成边缘描述符。最后采取不同的策略对“一对多”、“一对一”两种错误的匹配形式进行校正。实验结果表明,与随机抽样一致性法(Random sample consensus,RANSAC)相比,提出的方法在去除更多误匹配点的同时,只损失掉较少的正确匹配点对。