IEEE2024最新!基于视觉惯性融合的无监督单目深度估计
作者:小柠檬 | 来源:3DCV 在公众号「3DCV」后台,回复「原论文」可获取论文pdf
·
作者:小柠檬 | 来源:3DCV
在公众号「3DCV」后台,回复「原论文」可获取论文pdf
通过无监督学习估计单眼深度和自我运动已成为自动驾驶、移动机器人和增强现实 (AR)/VR 应用中一种有前途的方法。它避免了收集大量地面实况的大量工作,并进一步提高了同步定位与建图(SLAM)系统中的场景构建密度和长期跟踪精度。然而,由于现实驾驶场景中的快速移动,现有方法很容易受到照明变化和模糊图片的影响。在本文中,我们提出了一种新颖的无监督学习框架,以融合视觉和惯性测量的互补优势,以进行单目深度估计。它学习多个子空间的前向和后向惯性序列,以产生与环境无关且尺度一致的运动特征,并选择性地加权惯性和视觉模态以适应各种场景和运动状态。此外,我们探索了一种新颖的虚拟立体模型,在单目 SLAM 系统中采用这种深度估计,从而提高系统效率和准确性。在 KITTI、EuRoC 和 TUM 数据集上进行的大量实验表明,与最先进的技术相比,我们在单目深度估计、SLAM 初始化效率和姿态估计精度方面的有效性。
原文链接:IEEE2024最新!基于视觉惯性融合的无监督单目深度估计




魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐


所有评论(0)