论文部分内容阅读
机器人视觉伺服控制系统以其模仿了生物系统的非接触感知反馈机制及对于环境与目标的适应性而成为现代智能机器人技术的重要研究方向之一,应用前景非常广阔。另一方面,由于深度融合了机器人学、动力学、图像处理、自动控制与计算机等多个学科的理论与技术,加之本身又是一个具有非线性、强耦合及难以建模的复杂系统,使机器人视觉伺服控制成为一个具有高度挑战性的课题。这些因素也决定了传统的基于确定模型与需要对摄像机及手眼关系进行准确标定的控制方法难以达到好的控制效果或具有应用上的通用性,机器人无标定视觉伺服控制正成为主要研究与发展方向之一。为此,本文将多种智能控制算法与无标定视觉伺服系统相结合,有针对性地提出了一些创新方法并进行了较为深入的研究分析与实验,以实现在未对摄像机及手眼关系进行标定的前提下完成视觉伺服控制任务。首先,针对视觉伺服控制中涉及的图像处理技术问题,本文着重对目标分割与图像特征的选择、提取技术进行了分析。针对图像分割在视觉伺服控制中尤其是本文的视觉伺服控制算法中的重要性,研究并提出了一种基于二维信息熵与遗传算法相结合的图像目标的智能分割方法。与传统的基于一维信息熵的分割算法相比,该方法具有更好的准确性、稳定性与通用性,同时,利用遗传寻优算法来提高分割的快速性。其次,针对基于图像局部几何特征的视觉伺服方法中存在的图像特征选择、提取与匹配困难且通用性差的问题,本文研究并提出了一种基于人工免疫进化算法与图像差相结合的平面三自由度无标定视觉定位控制方法。其主要特点是不需要提取期望图像与反馈图像的图像特征,在对图像进行目标分割后,运用人工免疫进化算法在图像坐标系中直接求解目标在期望图像与反馈图像中的位置与方位角误差向量,经视觉控制器生成机器人位姿增量控制信号发送给机器人控制器,实现视觉伺服闭环控制。再次,针对机器人视觉伺服系统所具有的难以建模、非线性及手眼关系标定复杂等问题,研究并提出了一种基于图像矩与BP神经网络的无标定视觉伺服控制算法,并应用于三维4DOF(四自由度)视觉伺服控制。其特点在于:第一,利用BP神经网络的非线性逼近能力,对图像矩与摄像机位姿之间的相互变化关系进行直接映射,避免了依赖确定模型与精确手眼关系标定的图像雅可比矩阵的求取、相应的逆矩阵的计算以及可能产生的奇异性;第二,由于利用了图像矩这一全局特征描述子,图像特征误差的计算更加简单有效,通用性更好。最后,针对运动目标的视觉跟踪问题,研究并提出了一种基于参数自适应模糊控制算法与2-1/2D视觉伺服结构的视觉伺服控制方法。具体策略是,第一,将运动目标的位姿跟踪控制解耦成平移控制与旋转控制两个子系统,前者采用基于图像的视觉伺服控制结构(Image-based visual servoing,IBVS,又称为2D视觉伺服),后者采用基于位置的视觉伺服控制结构(Position-based visual servoing,PBVS,又称为3D视觉伺服),简化了控制的复杂性同时综合了IBVS与PBVS控制方式的优点;第二,运用参数自适应模糊控制算法以兼顾运动目标跟踪中的动态响应的快速性与静态时的稳定性要求。基于以上思路,提出了基于图像三阶中心矩及其组合极性来计算目标在图像中的方位角的方案;对于摄像机绕末端执行器旋转时对目标在图像中的位置的影响进行了深入分析;针对运动目标视觉跟踪控制的需要,研究并设计了完整的参数自适应模糊控制系统;同时,将所提出的各种控制方法进行了仿真,并在自行研究开发的机器人视觉伺服控制实验平台上进行了实验,验证了各种方法的有效性与优越性,并对各种方法的应用特点及局限性进行了分析。