论文部分内容阅读
目前应用机器视觉系统进行工件识别检测与定位抓取时,对于相较单个相机视场范围体积较大的超视场工件,因无法拍摄出工件完整图片,从而存在工件识别困难以及定位抓取不准等问题。针对这些问题,本文对基于机器视觉的超视场工件识别定位抓取系统 WRLGS(workpieces recognition location and grabbing system)进行了研究。研究内容主要包括以下几个方面:(1)对基于机器视觉的超视场工件识别进行研究,综合理论与实际设计出一种基于特征点提取和截取特征点所在ROI(感兴趣区域)的边界轮廓形状作为模板进行形状匹配的识别方法,能有效识别拍摄不到全貌的超视场工件。(2)研究探讨了基于机器视觉的超视场工件定位方法,针对超视场工件特性设计了一种无需复杂标定过程操作简单的位姿确定方法。该方法通过对每类超视场工件标准位置的定义,以及机器人各坐标轴下相对标准位置偏移量的计算来实现超视场工件的定位。(3)对基于机器视觉的超视场工件抓取进行研究,系统将整个机器人活动区域跨分成三块。改变传统单层控制网络的方式,通过设计由粗到精抓取网络的方法,将整个机器抓取过程分为了结合模糊控制的粗调整阶段和精细计算的精调整阶段。为适应多品种、柔性、智能化的现代生产需求,系统还制定了自学习过程来适应多种工件,实现在无人工操作情况下,系统自主学习各类工件的识别抓取过程。(4)对所提出方法进行了系统模型的构建并成功搭建了系统实例。利用搭建的系统实例进行了多类超视场工件的实验,通过实验验证了本文所提方法。通过实验得到,整个系统抓取时间小于6s,落爪位置与目标在水平方向误差≤2mm、高度误差≤0.2mm、角度误差≤0.3°。证明了基于视觉的超视场工件识别定位与抓取系统的可行性、准确性、柔性以及鲁棒性。希望能为无人作业下的超视场工件识别与定位抓取提供一种新的参考模式与实现途径。