ICRA2020 论文阅读

1. TextSLAM: Visual SLAM with Planar Text Features .Boying Li, Danping Zou, Daniele Sartori, Ling Pei, and Wenxian Yu . 上海交通大学上海市导航与位置服务重点实验室

摘要:将人工场景中的text目标集成到视觉SLAM系统中。基于text的视觉SLAM的核心思想是将每个检测到的text作为一个具有丰富纹理和语义意义的平面特征来处理。Text feature用三个参数简洁地表示,并采用光度不变的光度误差集成到视觉SLAM中。我们还描述了实现基于text的视觉SLAM的完整流程所涉及的重要细节。据我们所知,这是第一个与text feature紧耦合的视觉SLAM方法。我们在室内和室外环境中测试了我们的方法。结果表明,借助text feature,视觉SLAM系统变得更加鲁棒,生成更精确的三维text地图,可用于机器人或AR应用中的导航和场景理解。

Contributions:

(1) 提出了一种新的text feature三变量参数化方法。该参数化方法是紧凑的,并允许即时初始化具有小运动视差的text feature

(2) 采用归一化差平方和测量的光度误差,将text feature集成到视觉SLAM系统中。这样的光度误差照明变化和快速相机运动引起的模糊图像更加鲁棒Text feature的跟踪和建图是通过最小化光度误差来完成的,而不需要额外的数据关联过程。

(3) 们提出了一个基于文本的SLAM系统的实现细节,包括文本特征的初始化和更新,基于文本的相机位姿跟踪和后端优化。据我们所知,这是第一个与text feature紧耦合的视觉SLAM方法。

图片2.png 

 

 

2.  StructVIO : Visual-inertial Odometry with Structural Regularity of Man-made Environments .Danping Zou1, Yuanxin Wu1, Ling Pei1, Haibin Ling2 and Wenxian Yu1. 1上海市导航与位置服务重点实验室,上海交通大学;2HiScene Information Technologies,天普大学。

摘要:本文提出了一种适用于人工环境中结构规律性的VIO方法。我们没有使用曼哈顿世界(Manhattan world)假设,而是使用亚特兰大世界(Atlanta world)模型来描述这种规律性。亚特兰大世界是一个包含多个局部曼哈顿世界的世界,有不同的方向。每一个曼哈顿的局部世界都是实时探测到的,当有新的观测结果出现时,他们的headings会逐渐被状态估计器调整。通过充分探索与每个局部曼哈顿世界对齐的结构线,我们的VIO方法变得更加精确和鲁棒,以及对各种复杂的人工环境更加灵活。通过大量的基准测试和真实世界的测试,结果表明,该方法在大规模人工环境下优于现有的视觉惯性系统。

引言:大多数现有的VIO方法专注于处理一般场景,较少关注特定场景,如人工环境。这些环境表现出强烈的结构规律性,其中大多数可以抽象为一个盒子世界,即众所周知的曼哈顿世界。在这样的世界中,垂直方向的平面或直线占主导地位。该特性已应用于室内建模、场景理解和航向估计。借助曼哈顿世界假设,视觉SLAM的鲁棒性和准确性得到了提高。

然而,曼哈顿世界的假设对于一般的人造场景是有限制的,这可能包括倾斜或弯曲的结构。最常见的场景是那些包含多个盒子世界的场景,每个盒子世界都有不同的朝向。在这种情况下,如果检测到的线特征被迫与一个曼哈顿世界对齐,性能可能会变差。在本文中,我们试图解决这一问题,并将探索人工场景结构规律的思路扩展到视觉惯性里程计(VIO)系统。关键的想法是模型的场景作为一个亚特兰大世界,而不是单一的曼哈顿世界。亚特兰大世界是一个包含多个当地曼哈顿世界的世界,或一组具有不同方向的盒子世界。每一个局部曼哈顿世界都是实时探测到的,当有新的观测结果出现时,他们的朝向会被逐渐优化。被探测到的当地曼哈顿世界不一定是一个真正的盒子世界。正如我们将看到的,即使发现这些线只与单个水平方向对齐,我们也允许检测到一个本地曼哈顿世界。它使我们的算法灵活的不规则场景与三角形或多边形形状。

VIO系统中使用这种结构规则性的好处是显而易见的:与局部曼哈顿世界之一对齐的水平线在航向上产生了限制,使得方向误差没有在该局部区域增长; 即使没有探测到曼哈顿世界,一条垂直的线指示了重力方向,并立即显示出传感器位姿的滚动和俯仰。

基于上述想法,我们提出了一种新颖的VIO方法,该方法建立在最先进的VIO框架的基础上,并进行了一些扩展,以纳入结构信息,包括结构线特征和当地曼哈顿世界。我们详细描述了扩展,包括亚特兰大世界表示,结构线参数化,滤波器设计,线初始化,线轨迹的跟踪和三角剖分,以及曼哈顿世界的检测。

Contributions

(1) 一种新颖的线表示与最小数量的参数无缝地结合亚特兰大世界的假设和人造建筑的结构特征。每个局部曼哈顿世界都由一个方向表示,并由估计器作为一个状态变量加以细化。

(2) 结构线(有主导方向的线)和局部的曼哈顿世界自动识别。如果没有检测到结构线,我们的方法就像基于点的系统一样工作。请注意,在没有探测到曼哈顿世界的情况下,如果能够找到它们,垂直线仍然有助于进行估计。这使得我们的方法除了适用于室内场景外,还适用于不同类型的场景。

(3) 我们还对估计器和直线跟踪做了一些改进。一种新的信息累积方法处理长特征轨迹的丢失测量值,并实现更好的特征估计;采用多点采样和延迟EKF更新相结合的直线跟踪方法,使跟踪器更加可靠。

图片3.jpg 

 

 

 

3. Voxel Map for Visual SLAM . Manasi Muglikar, Zichao Zhang and Davide Scaramuzza .Robotics and Perception Group,苏黎世大学;苏黎世理工大学。

摘要:在现代视觉SLAM系统中,标准的做法是从重叠的关键帧中检索潜在的候选地图点,以进行进一步的特征匹配或直接跟踪。在这项工作中,我们认为关键帧不是这个任务的最佳选择,由于一些固有的限制,如弱几何推理和较差的可扩展性。我们提出了一种体素地图表示方法来有效地检索视觉SLAM中的地图点。特别地,我们将地图点组织在一个规则的体素网格中。通过光线投射的方式对相机的frustum进行采样来查询相机姿态中的可见点,这可以使用有效的体素散列方法在恒定的时间内完成。与关键帧相比,该方法能在几何上保证检索点落在相机视野内,并能在一定范围内识别和删除遮挡点。这种方法也可以自然地扩展到大场景和复杂的多相机配置中。实验结果表明,我们的体素映射表示与具有5个关键帧的关键帧映射一样有效,并且在EuRoC数据集上提供了显著更高的定位精度(RMSE平均提高46%)。所提出的体素地图表示是视觉SLAM基本功能的一种通用方法,具有广泛的适用性。

 

 

4. Visual Odometry Revisited: What Should Be Learnt? . Huangying Zhan, Chamara Saroj Weerasekera, Jia-Wang Bian, Ian Reid . Adelaide大学的计算机科学学院,澳大利亚机器人视觉中心

摘要:在本研究中,我们提出了一种利用基于几何方法和深度学习的VO算法。现有的大多数性能优越的VO/SLAM系统都是基于几何结构设计的,必须针对不同的应用场景进行精心设计。此外,大多数单目VO系统都存在尺度漂移问题。目前一些深度学习的工作是以端到端的方式来学习VO的,但是这些深度系统的性能还不能与基于几何的方法相比。在本研究中,我们重新审视VO的基础知识,探索将深度学习与对极几何和PnP方法相结合的正确方法。具体地说,我们训练了两个卷积神经网络(CNNs)来估计单视图深度和双视图光流作为中间输出。通过深度预测,我们设计了一种简单但鲁棒的frame-to-frame 的VO算法(DF-VO),其性能优于纯基于深度学习和基于几何的方法。更重要的是,我们的系统不会受到尺度漂移问题的困扰,这是由一个尺度一致的单视图深度CNN所辅助的。在KITTI dataset上的大量实验显示了我们系统的鲁棒性,而一项详细的消融研究显示了我们系统中不同因素的影响。代码开源:https://github.com/Huangying-Zhan/DF-VO 

引言:视觉定位的主要方法是VO和VSLAM。VO是SLAM中的前端部分。纯多视图几何VO在良好的条件下是可靠和准确的,例如在光照和纹理充足的情况下建立对应关系。在本作品中,我们重温了基于几何的VO的基础知识,并探索了将深度学习融入其中的正确方法。一种简单而健壮的帧到帧VO算法,命名为DF-VO,结合了深度预测。们将我们的系统与深度学习方法和几何方法进行了广泛的比较。此外,我们进行了详细的消融研究,以评估我们系统中不同因素的影响。

相关工作

基于几何的VO:两大主流的方法是特征点法(ORB-SLAM、PTAM、RGB-D SLAM)和直接法(DSO、DTAM)。也有一些混合的方法(SVO、LSD-SLAM)。

基于深度学习的VO:SfM-Learner、UnDeepVO、Depth-VO-Feat,CNN-SLAM、CNN-SVO。

实验结果对比:

图片4.jpg 

 

 

 

 

 

5. ∇SLAM: Dense SLAM meets Automatic Differentiation . Krishna Murthy J.*1,2,3, Ganesh Iyer5 , and Liam Paull†1,2,3,4 . 1Université de Montréal, 2Mila, 3Robotics and Embodied AI Lab (REAL), 4Candian CIFAR AI Chair,  5Carnegie Mellon University

摘要“表示”问题是dense SLAM中的核心问题。新的基于学习的方法有可能利用数据或任务性能来直接知道对表示的选择。然而,由于传统的SLAM系统是端到端不可微的,因此对SLAM表示的学习一直是一个开放的问题。在本研究中,我们提出了∇SLAM (gradSLAM),一种基于SLAM的可微计算图。借助计算图的自动微分能力,∇SLAM能够设计SLAM系统,允许跨每个组件或整个系统进行基于梯度的学习。这是通过在一个典型的dense SLAM系统中为每个不可微分组件创建可微分替代品来实现的。具体来说,我们演示了在不牺牲性能的情况下如何设计可微trust-region优化器,表明测量,融合方案,以及对光线的微分。这种dense SLAM和计算图的融合使得我们可以从3D地图反向传播到2D像素,开启了SLAM新的可能性。

引言:基于梯度的方法在SLAM中没有取得很大的成功,主要是因为标准的SLAM流程中是不可微的。一个完全可微分的SLAM系统将使任务驱动的表示学习成为可能,因为表示任务性能的误差信号可以通过SLAM系统反向传播到原始传感器观察数据中。

RGB-D相机中构建稠密3D地图有多种方法(点云、网格、表面)。然而,这些方法都不能解决inverse mapping问题,比如回答这样一个问题:“一个特定的像素测量对生成的3D地图有多大的贡献?”形式上,我们需要一个表达式,它将图像中的像素(或者一般来说,传感器测量值s)与环境的3D地图M联系起来。本文通过设计一个可微的映射函数M=gSLAM(s)来解决这个问题。该函数的梯度可以告诉我们若以一个无穷小的δs扰动传感器测量s,则映射图M会随着∇sGSLAM(s)δs而改变。

我们实现完全可微分SLAM系统的核心目标是计算图,它是大多数基于梯度的学习技术的基础。我们观察到,如果一个完整的SLAM系统可以被分解为基本运算,而这些基本运算都是可微的,那么我们就可以将这些基本运算组合起来以保持可微性。然而现代SLAM系统非常复杂,由几个不可微的子系统组成。

我们提出了∇SLAM (gradSLAM),一种SLAM的可微计算图视图。我们展示SLAM中的所有不可微函数是如何被实现为光滑映射的。首先,我们提出了一种非线性最小二乘系统的可微信赖域优化方法。在此基础上,我们提出了可区分的映射、光线投射和全局测量融合策略。

∇SLAM的框架非常具有泛化性,可以扩展到任何现有的SLAM系统并使其可微

图片5.jpg 

 

 

6.  Redesigning SLAM for Arbitrary Multi-Camera Systems . Juichung Kuo, Manasi Muglikar, Zichao Zhang, Davide Scaramuzza.  the Robotics and Perception Group, Dep. Of Informatics, University of Zurich, and Dep. of Neuroinformatics, University of Zurich and ETH Zurich, Switzerland

摘要-在SLAM系统中增加更多的摄像头可以提高鲁棒性和准确性,但会使视觉前端的设计显著复杂化。因此,文献中的大多数系统都是为特定的相机配置量身定制的。在本工作中,我们的目标是一个适用于任意多相机设置的自适应SLAM系统。为此,我们将重温visual SLAM中的几个常见构建块。特别地,我们提出了一种自适应的初始化方案、一种与传感器无关的、信息理论的关键帧选择算法和一种可伸缩的基于体素的地图。这些技术对实际的相机设置做了很少的假设,并且更喜欢理论方法的而不是启发式方法。采用了最先进的VO方法并进行上述修改,实验表明可以实现sensor-agnostic。

 

 

7. Probabilistic Data Association via Mixture Models for Robust Semantic SLAM. Kevin Doherty1, David P. Baxter1∗, Edward Schneeweiss12∗, and John J. Leonard1 .1Computer Science and Artificial Intelligence Laboratory (CSAIL), Massachusetts Institute of Technology (MIT) , Autonomous Mobile Robotics Laboratory (AMRL), University of Massachusetts Amherst ,

摘要:现代机器人系统通过摄像头、激光雷达和声纳等传感器以几何的方式,以及从数据中学习的视觉模型(如物体探测器)以语义的方式,感知环境。我们的目标是开发能够利用所有这些信息源进行可靠导航的机器人,但每个信息源都受到噪声的破坏。我们不认为目标检测最终会在机器人的整个生命周期内达到近乎完美的性能,而是表示并处理像物体检测这样的方法所固有的语义和几何不确定性。具体地说,我们以一种适用SLAM常用非线性高斯公式的方式,对典型的非高斯型数据关联模糊进行建模。我们通过最大边际化(max-marginalization)来消除推理过程中的数据关联变量,保留标准高斯后验假设。结果是一个max-mix -type模型,该模型考虑了多个数据关联假设以及不正确的循环闭包。们提供了带有噪声测距和目标检测的室内和室外语义导航任务的实验结果,发现该方法能够表示多个假设,包括“零”假设,与其他语义SLAM方法相比,具有显著的鲁棒性优势。

 

 

8. Inertial-Only Optimization for Visual-Inertial Initialization . Carlos Campos, Jose M.M. Montiel and Juan D. Tard ´ os .  Instituto de Investigacion en Ingenierıa de Aragon (I3A), Universidad de Zaragoza, Spain

摘要:我们首次将视觉-惯性初始化作为最大后验估计(MAP)意义上的最优估计问题。这使我们能够适当地考虑IMU测量的不确定度,这在以前求解代数方程集或使用最小二乘最小化特定成本函数的方法中被忽略了。我们在EuRoC数据集上的详尽初始化测试表明,我们的方案在很大程度上优于文献中最好的方法,能够在不到4秒的时间内在几乎轨迹的任何点进行初始化,平均尺度误差为5.3%。该方法被集成到了ORB-SLAM Visual-Inertial中,提高了鲁棒性和效率。

 

9. Hybrid Camera Pose Estimation With Online Partitioning for SLAM . Xinyi Li and Haibin Ling . X. Li is with the Department of Computer and Information Sciences, Temple University ; H. Ling is with the Department of Computer Science, Stony Brook University

摘要:本文提出了一个混合实时的相机位姿估计框架,使用了一种新的分割(partitioning)方案,引入运动平均到SLAM系统中。该方法突破了许多传统SLAM系统中时间划分固定大小的局限性,通过将空间上强连接的帧聚集到每个块中,显著提高了局部BA的精度。通过使用中间计算值进行动态初始化,我们改进了LM求解器,进一步提高了局部优化的效率。此外,通过我们基于视觉的划分,块之间的密集数据关联使我们能够探索和实现运动平均,以有效地全局对齐块,更新动态的摄像机运动估计。在基准数据集上的实验充分证明了我们提出的方法的实用性和鲁棒性,显著优于传统方法。

引言:本文提出了一种新的混合形式来解决SLAM中实时摄像机位姿估计问题。据我们所知,我们的方法是第一个结合了bundle adjustment (BA)和运动平均的混合SLAM框架,以估计和更新相机动态姿态。我们的方法在效率和准确性方面明显优于目前最先进的传统基于ba的系统。在大规模室外场景数据集上的实验结果进一步证明了该框架的鲁棒性。

Contributions:

(1) 在保证全局一致性的前提下,提出了一种基于共视图的时间和空间上特征匹配划分方案,有效提高局部优化的精度。

(2) 我们引入运动平均来有效地更新相机的动态姿态,克服了传统全局BA的计算瓶颈,避免了显式闭环。

(3) 利用中间计算值的动态块间传播和块内广播,我们对LM求解器的阻尼参数引入了新的更新方法,为基于不同大小的子映射的方法设计,以进一步有利于收敛。

 

 

10.  GPO: Global Plane Optimization for Fast and Accurate Monocular SLAM Initialization . Sicong Du†‡1,2, Hengkai Guo†3, Yao Chen3, Yilun Lin1,2, Xiangbing Meng∗1,2, Linfu Wen3, Fei-Yue Wang1,2 .  PART Group, the State Key Laboratory of Complex System Management and Control, Institute of Automation, Chinese Academy of Sciences, Beijing ; ByteDance AI Lab

摘要:初始化是单目SLAM问题的关键。提出了一种基于平面特征的单目SLAM初始化方法。该算法首先在滑动窗口中进行单应性估计。然后,它进行全局平面优化(GPO),以获得相机姿态和平面法线。利用平面约束恢复三维点,无需三角化。该方法充分利用了多帧图像中的平面信息,避免了单应性分解中的模糊性。我们根据基线实现在收集的棋盘数据集上验证我们的算法,并提供广泛的分析。实验结果表明,该方法在精度和实时性方面均优于微调后的基线。

Contributions:

(1) 我们提出了一种新的单目SLAM初始化方法,据我们所知,这是第一个充分利用多帧平面信息的SLAM初始化方法。

(2) 我们提出了几个初始化基线,并进行了详尽的实验来验证我们的方法。

(3) 为了解决绝对平移误差准则的局限性,提出了一种新的平面估计精度评价指标。

图片6.jpg 

 

 

 

11. FlowNorm: A Learning-based Method for Increasing Convergence Range of Direct Alignment .Ke Wang, Kaixuan Wang, and Shaojie Shen .  ECE , HKUST

摘要:通过直接最小化光度误差来估计相机位姿的方法有很多。然而,由于直接对齐的非凸特性,这些方法仍然需要适当的初始化。很多鲁棒核函数(比如Huber核函数)被提出用于处理由不正确的初始化引起的外点。这些鲁棒核函数仅定义在每个误差项上。在本文中,我们提出了一种新的鲁棒核函数,称为FlowNorm,它利用了来自局部误差项和全局图像配准信息。局部信息是定义在块对齐上,全局信息是使用一个基于学习的网络估计的。利用局部和全局信息,我们实现了前所未有的收敛范围,图像可以在给定大视角变化或小重叠的情况下进行对齐。通过将鲁棒范数集成到直接方法DSO和BA-Net中,进一步证明了所提鲁棒范数的可用性,并能实时得到更鲁棒和准确的结果。

Contributions:

(1) 本文提出了一种新的范数,扩展了传统非线性解的收敛范围。

(2) 就我们所知,这个方法是第一个能够区分在直接排列情况下哪些对应会抑制求解器收敛的算法。

(3) 我们构建了DSO和BA-Net的FlowNorm版本,FlowNorm DSO保留了实时特性。

 

 

12 . Flow-Motion and Depth Network for Monocular Stereo and Beyond . Kaixuan Wang and Shaojie Shen . ECE, HKUST

摘要:我们提出了一种基于学习的方法,用于解决单目立体视觉问题,并可以扩展到融合来自多个目标帧的深度信息。给定来自单目相机的两幅无约束图像,我们的网络估计相对相机的姿态和源图像的深度图。该方法的核心贡献有三个方面。首先,为静态场景量身定制一个网络,联合估计光流和相机运动。通过联合估计,逐步缩小光流搜索空间,实现高效、准确的流估计。其次,提出了一种新的三角测量层,对估计的光流和相机运动进行编码,同时避免了由外极线引起的常见数值问题。第三,在两视图深度估计的基础上,进一步扩展上述网络,融合多幅目标图像的深度信息,估计源图像的深度图。为了进一步造福社区,我们设计了工具去生成逼真的SFM数据集这样深度神经网络可以更好的训练和测试。通过与已有方法的比较,该方法在较短的时间内达到了理想的结果。通过实际应用和谷歌地球的图像验证了该方法的泛化能力。

图片7.jpg 

图片8.jpg 

 

13.FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow . Tianwei Zhang1, Huayan Zhang2, Yang Li1, Yoshihiko Nakamura1 and Lei Zhang1,2 . Department of Mechano-Informatics, School of Information Science and Technology, the University of Tokyo ; School of Electrical and Information Engineering, Beijing University of Civil Engineering and Architecture

摘要:动态环境对视觉SLAM具有挑战性,运动目标会遮挡静态环境特征,导致错误的摄像机运动估计。本文提出了一种新的稠密RGB-D SLAM方法,它能同时完成动态/静态分割、相机运动估计和静态背景重建。我们的创新之处在于利用光流残差来突出RGBD点云中的动态语义,为相机跟踪和背景重建提供更准确、更高效的动态/静态分割。对公共数据集和真实动态场景的密集重建结果表明,与现有方法相比,该方法在动态和静态环境下都能实现精确和高效的重建性能。

引言:基于语义分割的动态SLAM当出现未知的动态对象时,其鲁棒性可能会下降。考虑到更一般化的动态特征,本文探索了流方法来描述各种动态对象,如三维点云中的场景流和二维图像中的光流。流方法是估计给定图像对或点云数据之间的像素运动。这些方法对轻微运动敏感,在跟踪运动的非刚性表面时具有优势。然而,流方法需要复杂的惩罚设置,分割边界不明确。

为了摆脱已有的动态目标假设,本文采用基于流的动态/静态分割方法处理动态SLAM问题。与已有的方法不同,我们提出了一种基于光流残差的动态分割和密集融合的RGB-D SLAM方案。该方法通过改善动态因素的影响,在现有RGB-D帧中有效提取动态段,进而精确重构静态环境。此外,在真实的具有挑战性的类人机器人SLAM场景上的演示表明,本文提出的方法优于其他最新的动态SLAM解决方案。

图片9.jpg 

 

 

14. Dynamic SLAM: The Need For Speed . Mina Henein1, Jun Zhang1, Robert Mahony1 and Viorela Ila2 .  College of Engineering and Computer Science, Australian National University ;  the School of Aerospace, Mechanical and Mechatronic Engineering, University of Sydney

摘要:静态世界假设是大多数SLAM算法的标准。随着移动机器人在非结构化动态环境中部署的增加,推动了对实时识别移动物体和估计其速度的需求。现有的基于SLAM的方法大多依赖于物体的三维模型数据库或施加显著的运动约束。在本文中,我们提出了一种新的基于特征、无模型、对象感知的动态SLAM算法,该算法利用语义分割来估计场景中刚性对象的运动,而不需要估计对象的姿态或对其3D模型有任何先验知识。该算法生成动态结构和静态结构的地图,能够提取场景中刚性运动物体的速度。它的性能在模拟、合成和真实的数据集上得到了验证。

图片10.jpg 

 

 

15. DOOR-SLAM: Distributed, Online, and Outlier Resilient SLAM for Robotic Teams . Pierre-Yves Lajoie1, Benjamin Ramtoula1,3, Yun Chang2, Luca Carlone2, Giovanni Beltrame1 . Department of Computer and Software Engineering, Polytechnique Montréal ; Laboratory for Information & Decision Systems (LIDS), Massachusetts Institute of Technology ; School of Engineering, École Polytechnique Fédérale de Lausanne

摘要:为了完成协作任务,团队中的机器人需要对环境和它们在其中的位置有一个共同的理解。分布式SLAM提供了一种实用的解决方案,可以在不依赖外部定位系统(如GPS)的情况下,以最少的信息交换来定位机器人。:遗憾的是,目前的分布式SLAM系统容易受到感知离群值的影响,因此在机器人间位置识别时往往使用非常保守的参数。然而,过于保守的代价是拒绝了许多有效的回环候选帧,这将导致不准确的轨迹估计。本文介绍了一种全分布式的SLAM系统DOOR-SLAM,该系统具有一种排斥离群点的机制,可以在保守参数较少的情况下工作。DOOR-SLAM基于点对点通信,不需要机器人之间的完全连通性。DOOR-SLAM包括两个关键模块:第一个模块是位姿图优化与分布式对一致性测量集最大化算法相结合的用于删除假的、机器人内部的回环;以及分布式SLAM前端,用于检测机器人间的循环闭合,而无需交换原始传感器数据。该系统已经在模拟、基准数据集和现场实验中进行了评估,包括在gps禁止的地下环境中进行的测试。DOOR-SLAM产生更多的机器人间环路闭合,成功地拒绝离群值,并导致精确的轨迹估计,同时需要较低的通信带宽。代码开源:https://github.com/MISTLab/DOOR-SLAM.git. 

图片11.jpg 

 



16. DeepFactors: Real-Time Probabilistic Dense Monocular SLAM . Jan Czarnowski, Tristan Laidlow, Ronald Clark, and Andrew J. Davison . Dyson Robotics Laboratory, Imperial College London

摘要:从单目图像估计丰富的几何和相机运动的能力是未来交互式机器人和增强现实应用的基础。不同的方法已经被提出,不同的场景几何表示(稀疏地标,密集地图),用于优化多视角问题的一致性度量,以及学习先验的使用。我们提出了一个SLAM系统,该系统将这些方法统一在一个概率框架内,同时仍然保持实时性能。这是通过使用一个学习紧凑的深度图表示和重新制定三种不同类型的误差:光度,重投影和几何,我们在标准因子图软件中使用。我们评估了我们的系统的轨迹估计和深度重建的真实序列,并给出了各种估计稠密几何的例子。

 

 

 

17. Closed-Loop Benchmarking of Stereo Visual-Inertial SLAM Systems: Understanding the Impact of Drift and Latency on Tracking Accuracy . Yipu Zhao1, Justin S. Smith1, Sambhu H. Karumanchi1, and Patricio A. Vela1 . the School of Electrical and Computer Engineering, Georgia Institute of Technology

摘要:视觉惯性SLAM对于在室内、地下等gps环境下的机器人导航至关重要。通常采用开环分析的方法来评估视惯性SLAM的性能,重点分析SLAM系统的漂移水平。在本文中,我们提出了在闭环导航任务中视觉估计延迟的重要性问题,如精确的轨迹跟踪。为了了解漂移和延迟对视觉惯性SLAM系统的影响,进行了一个闭环基准仿真,利用视觉惯性估计的反馈命令机器人沿着期望的轨迹运动。通过对具有代表性的视觉惯性SLAM系统轨迹跟踪性能的广泛评估,揭示了降低系统视觉估计模块延迟的重要性。这些发现为视惯性SLAM的未来改进指明了方向。

 

 

18. Analysis of minima for geodesic and chordal cost for a minimal 2D pose-graph SLAM problem . Felix H. Kong1, Jiaheng Zhao1, Liang Zhao1, and Shoudong Huang1 .  the Centre for Autonomous Systems, Faculty of Engineering and Information Technology, University of Technology Sydney (UTS)

摘要:在本文中,我们展示了了对于最小二维位姿图SLAM问题,即使在完美测量和球面协方差的理想情况下,使用测地线距离(geodesic distance)(在二维中,“wrap function”)来比较角度会产生多个次优局部极小值。我们用数值方法估计了这些局部极小点的吸引区域,给出了一些证据来证明它们是非零测度的,并且这些区域随着噪声的增加而增大。相反,在相同的假设下,我们证明了角误差的chordal distance表示法在周期上有唯一的最小值。对于chordal代价,我们发现不能收敛到全局最小值的初始条件要少得多,因为数值问题而失败,并且在我们的例子中似乎没有随着噪声的增长而增长。

 

 

19. Are We Ready for Service Robots? The OpenLORIS-Scene Datasets for Lifelong SLAM . Xuesong Shi∗1, Dongjiang Li∗2,4 ,ect . 1Intel Labs China ;2Department of Electronic Engineering and BNRist, Tsinghua University ; 3Gaussian Robotics; 4Beijing Jiaotong University

摘要:服务机器人应该能够在一段较长的时间内在动态和日常变化的环境中自主运行。SLAM是机器人自主的最基本问题之一,现有的大多数SLAM工作都是通过短时间内记录的数据序列来评估的。在实际部署中,可能会有自然因素和人类活动引起的看不见的场景变化。例如,在家庭场景中,大多数物体可能是可移动的、可替换的或可变形的,同一地点的视觉特征在连续几天内可能会显著不同。这种视线外的动态特性对位姿估计的鲁棒性提出了极大的挑战,从而影响了机器人的长期部署和运行。为了将上述问题与通常在静态环境下单次运行评估的传统工作区别开,这里使用lifelong SLAM这个术语来解决长期变化环境下的SLAM问题。为了加速lifelong SLAM的研究,这里发布OpenLORIS-Scene数据集。数据是在真实的室内场景中收集的,在每个地方进行多次收集,以包括现实生活中的场景变化。我们还设计了终身SLAM的基准度量,分别对姿态估计的鲁棒性和精度进行评估。数据集地址:https://lifelong-robotic-vision.github.io/dataset/scene 

 

 

 

 

 

 


下一篇:

首页 所有文章 机器人 计算机视觉 自然语言处理 机器学习 编程随笔 关于