论文部分内容阅读
近年来,随着我国体育事业的快速兴起,进行各项体育运动的人数日益增长。其中羽毛球运动由于场地限制少、容易上手等优点,目前已成为国内最热门的体育运动项目之一。同时科技的迅速发展促进了智能羽毛球机器人的发展,在第十四届Robocon全国机器人大赛“羽球双雄”的推动下,国内外越来越多高校研究人员及企业团队围绕全自动羽毛球机器人展开研究。高性能视觉系统是全自动羽毛球机器人的核心,目前市场化的羽毛球发球机只能训练运动者重复击打各类发球,缺乏有效的视觉反馈系统,智能化程度不高。设计出一款可实现人机对打且廉价的智能羽毛球机器人,不仅能缓解对羽毛球陪练员的需求,更能提高羽毛球运动爱好者的整体技术水平和羽毛球比赛的观赏性。本文针对羽毛球机器人中的视觉系统,完成二维图像平面视频流中的飞行羽毛球侧面检测、跟踪及轨迹预判算法应用研究。通过ZED摄像头,从侧面采集多个背景不变或变化缓慢场景下的羽毛球飞行视频流并制作实验所需数据集。前期通过结合传统三帧差分和机器学习AdaBoost算法实现羽毛球识别,并融合羽毛球飞行过程中的固有特征,如:羽毛球面积、周长、连续两帧之间的欧式距离等,得到一种基于检测的物体中心快速跟踪算法(以下简称“FTOC”)。结果表明,在复杂场景实验室羽毛球飞行视频流中,FTOC对羽毛球跟踪的召回率从78.87%提升至94.52%,通过与多个经典跟踪算法进行对比,FTOC的跟踪召回率和平均定位精度均达到最佳。此外,FTOC在四个简单和复杂场景羽毛球飞行视频流中测得的平均精确率、平均召回率和平均帧率分别为93.92%、85.92%和15.13帧/秒。整体而言,FTOC在精确率、召回率和实时性等方面对羽毛球跟踪具备一定优势,场景鲁棒性较强。然而,FTOC算法处于CPU模式下运作,模型训练和参数整定周期长,召回率和实时性仍存在改进空间。为进一步提高计算效率,获取更多精确的羽毛球坐标,后期针对视频流中的飞行羽毛球为小目标这一检测难题,从损失函数和网络结构两方面改进深度学习一阶段检测网络Tiny YOLOv2,得到羽毛球检测网络M-YOLOv2和YOLOBR。针对四个简单和复杂场景的飞行羽毛球视频流,YOLOBR测试得到的平均精确率、平均召回率和平均帧率分别为96.7%、95.7%和29.2帧/秒。结果表明,与Tiny YOLOv2、M-YOLOv2相比,YOLOBR在羽毛球检测精确率、召回率和实时性等方面均得到提升,场景鲁棒性强。最后,根据FTOC算法获取的羽毛球坐标,结合最小二乘法和Kalman滤波对视频流中的羽毛球进行轨迹预判。结果表明,在保持实时性的同时,最小二乘法对羽毛球飞行轨迹具有一定的预判性能且Kalman滤波可优化羽毛球预判点。