论文部分内容阅读
随着工业4.0的到来,人工智能领域内双目视觉再次成为近年来人们研究的一个热门问题。其原理和人类双眼获取外界信息相似,用两个相机来模拟人的双眼,同时获取两幅同一场景但位置、角度不同的数字图像,由两幅数字图像获取场景中的二维信息,经过计算得到此场景的三维信息。作为机器视觉的一个重要分支,双目视觉在机器人自主导航、三维扫描、机械手定位抓取、基于视觉的各种控制等众多领域有着广阔的前景和非常巨大的应用价值,例如:在手术机器人系统应用中可以帮助手术器械的定位跟踪、偏差预警和动作纠正;在盲人外出行走中可以帮助盲人判断前方障碍物;在汽车行驶中可以帮助判断前车的距离并做出当前距离是否安全的判断。本文系统的研究了传统双目视觉系统的结构,并从图像采集、摄像机标定、目标检测定位、双目图像匹配、目标距离测量等五个方面进行研究:(1)双目视觉的图像采集:本文采用了两个型号、规格完全一样的普通摄像机,输出图像大小完全一样,并将两个相机的位置固定不变。在VS2010开发环境中采用基于DirectShow+OpenCV模式下实现了图像的采集、截取功能。(2)双目视觉的摄像机标定:在原理上详细的描述了双目视觉中的几何模型、三个坐标系之间的相对位置关系、推导视场范围内任意一点的空间位置。介绍了Matlab标定工具箱、OpenCV标定API函数,并对标定过程进行详细的描述以及代码实现,把得到最后的结果进行比较分析。(3)双目视觉的目标检测定位与跟踪:目标检测定位与跟踪可分为主动目标检测跟踪和被动目标检测跟踪。主动目标跟踪本文采用了激光笔照射的亮点(相当于工业三维扫描中的人为Mark点定位引导)作为跟踪定位目标。运动目标检测研究了传统的时间差分法、背景差分法、混合高斯建模法,通过实验结果的对比确定了混合高斯建模法为运动目标检测的方法。在运动跟踪中运用CamShift算法实现单目标物体和多目标物体的目标跟踪并使用C++编程实现。(4)双目视觉的图像匹配:这部分是本文研究中最难的一个部分,也是最核心的一个部分。首先介绍了基于图像局部特征匹配方法,分析了SIFT(Scale-invariant feature transform)经典算法,SIFT具有很多优点,但是匹配时间相对较长,不适合实时双目视觉匹配计算的需要,根据双目视觉的特点,我们提出了局部圆形矩的新概念,并利用高斯卷积实现了它的快速计算,成功实现了基于局部圆形矩(LocalCircular Moment:LCM)的图像快速匹配新方法。重要的是,我们利用局部圆形矩修改了SIFT用DOG(Difference of Gaussians)算子作为特征点定位的方法,利用高斯稳定的方向梯度或DOG算子作为局部图像特征代替了SIFT所采样的梯度特征,实验表明算法的稳定性更好。同时,修改了图像局部特征的采样方法,保证了特征算法的旋转不变性特点,相对于SIFT的算法复杂度大大减小,匹配时间显著提高,实验表明LCM匹配时间不到SIFT的十分之一。LCM可以实时用于双目视觉目标匹配定位跟踪、测量等技术中。(5)双目视觉的目标距离测量:基于双目视觉的距离测量是建立在双目图像对应点匹配的基础上的,本文采用双目视觉系统三角原理对目标进行实验,并用获得的试验结果和实际的结果做比较,做误差分析。本文实验表明本文研究的技术思路是合理可行的,实验所完成的系统具有一定的准确性与实时性、稳定性,能很好平移到具体应用工程中,所提出的局部圆形矩的图像特征计算与匹配方法,具有一定的理论价值与应用价值。