https://youtu.be/LlFTyQf_dlo?list=PL5A4UvK5ORw4j63vvyZ3q0nqfFrJ-UG2B 对于主流的视觉惯性里程计(VIO)算法来说,城市地区等动态环境仍然具有挑战性。现有数据集通常无法捕捉这些环境的动态特性,因此难以定量评估现有 VIO 方法的鲁棒性。为了解决这个问题,我们提出了三个贡献:首先,我们提供了 VIODE 基准,这是一个从模拟无人机记录的新数据集,可以在具有挑战性的动态环境中导航。 VIODE 数据集的独特之处在于将移动对象系统地引入场景中。它包括三个环境,每个环境都有四个动态级别,可逐步添加移动对象。该数据集包含同步的立体图像和 IMU 数据,以及真实轨迹和实例分割掩码。其次,我们在 VIODE 数据集上比较了最先进的 VIO 算法,并表明它们在高度动态的场景中表现出显着的性能下降。第三,我们提出了一个依赖语义信息的视觉定位算法的简单扩展。我们的结果表明,场景语义是减轻动态对象对 VIO 算法的不利影响的有效方法。最后,我们在 https://github.com/kminoda/VIODE 上公开了 VIODE 数据集。 Title: VIODE: A Simulated Dataset to Address the Challenges of Visual-Inertial Odometry in Dynamic Environments Authors: Koji Minoda, Fabian Schilling, Valentin Wüest, Dario Floreano, Takehisa Yairi Publication: IEEE Robotics and Automation Letters (RA-L) Project website: https://github.com/kminoda/VIODE IEEEXplore: https://ieeexplore.ieee.org/document/. ArXiv: https://arxiv.org/abs/2102.05965
www.bilibili.com