论文部分内容阅读
在“中国制造2025”计划提出的背景下,中国工业对柔性生产线和智能机器人的需求越来越迫切。快速而准确的物体位姿估计是让机器人感知外部世界,实现机器人在复杂环境下操作三维物体(如抓取、装配)的基础。因此实时的三维物体检测和位姿估计对于智能机器人的发展、对于中国制造“由大变强”目标的实现有着重要意义。目前对三维物体位姿估计的方法有两种,一种是基于二维图像检索的,另一种是基于三维点云配准的。前者需要获取大量的不同视角下的物体二维图像,对内存的消耗巨大且难以达到很高的精度。后者的鲁棒性和灵活性更好,且可以达到更高的精度,对于需要高精度位姿估计的应用已经成为一种趋势。但其存在对传感器精度过于依赖、单帧深度图的位姿估计在遇到无三维特征时可能失效等问题。目前大多数研究都选择了直接使用深度相机,例如基于结构光和ToF(Time of Flight)的深度相机,但是这类主动光深度相机受环境光影响严重,且多台设备同时使用时可能相互干扰。相比之下,双目相机不存在上述问题,但是双目相机的运算量巨大,难以做到实时深度估计,且精度相对较低。本文从深度图获取和采用多视角融合估计位姿等方面开展了以下工作:(1)提出了一种基于多尺度加权投票算法的高帧率双目匹配算法框架,该算法框架适用于多种立体匹配算法,本文以最为简单的块匹配(Block Matching)算法为例验证了算法框架的有效性。(2)采用了TSDF Volume模型对连续深度图进行时序融合,提高了深度图测量精度并提高了深度图的完整性。(3)采用了结合FPFH三维特征和ICP的由粗到精的点云配准方法,实现了较大位姿差异的两帧点云的高精度配准,从而实现了对机器人工作空间内三维物体在不同位姿状态下的高精度位姿估计。(4)搭建了一个机器人抓取实验平台,对多种物体的不同位姿实施了位姿估计和抓取,取得了在一定条件下物体检测成功率100%,重复定位位置精度0.2mm,方向精度0.02°,抓取成功率95%的实验结果。充分验证了提出算法的准确性和精确性。