基于深度学习位姿估计的多视结构光三维成像方法

Acta Optica Sinica(2021)

引用 0|浏览7
暂无评分
摘要
多视角结构光测量是利用结构光测量系统从多个角度测量实现被测对象完整表达的过程,所以多个视角下测量数据的拼接影响了被测对象的完整性.提出一种利用深度学习估计位姿并直接进行多视角数据拼接的方法.结构光测量模型为四步相移配合多频外差法,实现单次高精度三维重建.使用只看一次(YOLO)网络识别被测对象的3D包围盒角点,采用n点透视(PnP)算法进行目标位姿估计.由于测量系统和位姿估计的坐标系均统一到单目相机下,多个视角的数据直接利用估计的位姿进行拼接.建立相邻点云的特征描述子,利用迭代最近点(ICP)算法实现高精度拼接.结果 表明,提出的测量方法能够有效实现多视角结构光数据的拼接;位姿估计的平移精度优于3 mm,旋转精度优于1°,拼接点云的平均偏差为0.02 mm;这与利用标志点拼接的结果具有可比较的精度水平.拼接方法适用于单次可完整估计位姿的多视角结构光测量,提升了多视角拼接效率.
更多
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要