基于YOLO的复杂环境视觉SLAM优化方法

Journal of Computer Applications(2021)

Cited 0|Views1
No score
Abstract
针对视觉SLAM的前端视觉里程计在实际路面应用中易受移动车辆、行人等动态目标影响而导致的错误对极约束问题,基于YOLO提出了一种去除动态特征点的方法,通过对路面动态目标进行识别,并对提取到的不稳定特征点进行剔除,实现对视觉SLAM定位性能的优化.利用公开的带参考基准数据的11组KITTI数据集进行了测试,测试结果表明,提出的优化方法在常见路面场景中的定位结果有相应的优化,可以使原ORB-SLAM2方法双目模式下的相对姿态误差(RPE)的中值由4.24%降低至3.99%;在算法时间方面,同样在双目模式下,与使用Mask R-CNN的DynaSLAM在原ORB-SLAM2时间消耗基础上增加121%相比,使用YOLO时间消耗增加仅为36%,能更有效率地提高定位精度.
More
AI Read Science
Must-Reading Tree
Example
Generate MRT to find the research sequence of this paper
Chat Paper
Summary is being generated by the instructions you defined