以下内容来自小六的机器人AI学习圈(6年积累,全国最大的机器人SLAM交流社区,为SLAM行业从业者提供从入门、学习、交流、求职、线下链接、合作、咨询、答疑等一系列的服务)知识星球每日更新内容
【JointLoc: A Real-time Visual Localization Framework for Planetary UAVs Based on Joint Relative and Absolute Pose Estimation】
文章链接:[2405.07429] JointLoc: A Real-time Visual Localiza...
开源代码:GitHub - LuoXubo/JointLoc: Code for "JointLoc: A R...
星载无人机视觉定位旨在通过卫星地图和星载相机拍摄的图像估计无人机在世界坐标系下的绝对位姿。然而,由于行星场景往往缺乏显著的地标,且卫星地图与无人机图像之间存在模态差异,会降低无人机定位的准确性和实时性。为了在没有全球卫星导航系统( Global Navigation Satellite System,GNSS )的情况下准确地确定行星场景中无人机的位置,本文提出了JointLoc,通过自适应地融合绝对2自由度( 2-DoF )位姿和相对6自由度( 6-DoF )位姿来估计无人机在世界坐标系中的实时位置。在所提出的行星无人机图像跨模态定位数据集上进行了广泛的对比实验,该数据集包含通过模拟引擎生成的3种典型火星地形以及Ingenuity直升机的真实火星无人机图像。JointLoc在高达1000m的轨迹中实现了0.237 m的均方根误差,而ORB - SLAM2和ORB - SLAM3的均方根误差分别为0.594 m和0.557 m。
|