• 北大核心期刊(《中文核心期刊要目总览》2017版)
  • 中国科技核心期刊(中国科技论文统计源期刊)
  • JST 日本科学技术振兴机构数据库(日)收录期刊

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于VI-DSO的改进单目视觉惯性里程计

陈明达 应骏

陈明达, 应骏. 基于VI-DSO的改进单目视觉惯性里程计[J]. 微电子学与计算机, 2022, 39(8): 55-62. doi: 10.19304/J.ISSN1000-7180.2021.1192
引用本文: 陈明达, 应骏. 基于VI-DSO的改进单目视觉惯性里程计[J]. 微电子学与计算机, 2022, 39(8): 55-62. doi: 10.19304/J.ISSN1000-7180.2021.1192
CHEN Mingda, YING Jun. Improved monocular visual inertial odometer based on VI-DSO[J]. Microelectronics & Computer, 2022, 39(8): 55-62. doi: 10.19304/J.ISSN1000-7180.2021.1192
Citation: CHEN Mingda, YING Jun. Improved monocular visual inertial odometer based on VI-DSO[J]. Microelectronics & Computer, 2022, 39(8): 55-62. doi: 10.19304/J.ISSN1000-7180.2021.1192

基于VI-DSO的改进单目视觉惯性里程计

doi: 10.19304/J.ISSN1000-7180.2021.1192
基金项目: 

上海市自然科学基金 19ZR1437600

详细信息
    作者简介:

    陈明达  男,(1997-), 硕士研究生.研究方向为计算机视觉, 图像处理

    通讯作者:

    应骏(通讯作者)   男,(1973-),博士, 讲师。研究方向为图像处理及嵌入式系统,E-mail:junying@shnu.edu.cn

  • 中图分类号: TP242

Improved monocular visual inertial odometer based on VI-DSO

  • 摘要:

    针对目前纯直接法的视觉里程计缺乏尺度信息,优化位姿时容易陷入局部最优点,且单目视觉初始化时收敛速度较慢等问题,提出了一种改进的直接法单目视觉惯性里程计方案.基于目前效果较好的直接法视觉惯性里程计VI-DSO,提出修改方案.在初始化时,针对VI-DSO方案忽略IMU的初始化,采用后端统一优化的方式估计IMU偏置,导致尺度收敛慢,累积误差较大的问题,增加了IMU偏置及尺度的MAP快速预估,加快了初始化时尺度收敛的速度,同时也为后端优化提供了一个较精确的初始数据,减少累积误差;在深度估计中,改进了深度滤波方案,参考了SVO的滤波方法,利用高斯-均匀滤波器估计误匹配的概率,剔除错误的深度估计,融合正确的深度数据,提高定位精度;在边缘化过程中,完善了VI-DSO方案的边缘化策略,增加了对当前运动状态的判断,根据运动状态选择需要边缘化的帧,确保滑窗内有足够的视差.通过在EuRoc数据集中的测试结果表明,改进后的方案,初始化速度提升了33%,平均定位精度提高了34.5%.

     

  • 图 1  算法框图

    Figure 1.  Algorithm-block Diagram

    图 2  IMU初始化

    Figure 2.  IMU Initialization

    图 3  深度融合过程

    Figure 3.  Deep Fusion Process

    图 4  边缘化决策过程

    Figure 4.  Marginalization Decision Process

    图 5  Euroc数据集场景

    Figure 5.  Euroc dataset scene

    图 6  尺度因子

    Figure 6.  Scale Factor

    图 7  IMU加速度计偏置

    Figure 7.  IMU Accelerometer Bias

    图 8  IMU陀螺仪偏置

    Figure 8.  IMU Gyroscope Bias

    图 9  轨迹对比

    Figure 9.  Trajectory Contrast

    表  1  各算法的RMSE对比(单位:m)

    Table  1.   Comparison of RMSE of VIO algorithm (unit : m)

    MH_01 MH_02 MH_03 MH_04 MH_05 V2_01 V2_02 V2_03
    本文算法 0.033 0.029 0.092 0.031 0.088 0.051 0.071 0.060
    VI-DSO 0.041 0.041 0.116 0.129 0.106 0.031 0.060 0.173
    VINS_Mono 0.084 0.105 0.074 0.122 0.147 0.056 0.090 0.244
    VI-ORB 0.072 0.078 0.067 0.081 0.077 0.031 0.026 0.073
    ORB-SLAM3 0.032 0.053 0.033 0.099 0.071 0.041 0.015 0.037
    下载: 导出CSV

    表  2  各算法运行帧率对比(单位:fps)

    Table  2.   Frame rate comparison of each algorithm (unit : fps)

    MH_01 MH_02 V2_01
    本文算法 18.59 17.88 18.25
    VI-DSO 19.05 18.39 19.62
    VINS-Mono 16.14 15.56 15.47
    VI-ORB 8.78 8.54 8.23
    ORB-SLAM3 10.88 10.33 10.46
    下载: 导出CSV
  • [1] 王霞, 左一凡. 视觉SLAM研究进展[J]. 智能系统学报, 2020, 15(5): 825-834. DOI: 10.11992/tis.202004023.

    WANG X, ZUO Y F. Advances in visual SLAM research[J]. CAAI Transactions on Intelligent Systems, 2020, 15(5): 825-834. DOI: 10.11992/tis.202004023.
    [2] 潘林豪, 田福庆, 应文健, 等. 基于直接法的视觉同时定位与地图构建技术综述[J]. 计算机应用研究, 2019, 36(4): 961-966. DOI: 10.19734/j.issn.1001-3695.2018.01.0123.

    PAN L H, TIAN F Q, YING W J, et al. Survey on direct-method visual simultaneous localization and mapping[J]. Application Research of Computers, 2019, 36(4): 961-966. DOI: 10.19734/j.issn.1001-3695.2018.01.0123.
    [3] MORENO-ARMENDÁRIZ M A, CALVO H. Visual SLAM and obstacle avoidance in real time for mobile robots navigation[C]//Proceedings of 2014 International Conference on Mechatronics, Electronics and Automotive Engineering. Cuernavaca: IEEE, 2014: 44-49. DOI: 10.1109/ICMEAE.2014.12.
    [4] 林辉灿, 吕强, 张洋, 等. 稀疏和稠密的VSLAM的研究进展[J]. 机器人, 2016, 38(5): 621-631. DOI: 10.13973/j.cnki.robot.2016.0621.

    LIN H C, LV Q, ZHANG Y, et al. The sparse and dense VSLAM: a survey[J]. Robot, 2016, 38(5): 621-631. DOI: 10.13973/j.cnki.robot.2016.0621.
    [5] 刘明芹, 张晓光, 徐桂云, 等. 单机器人SLAM技术的发展及相关主流技术综述[J]. 计算机工程与应用, 2020, 56(18): 25-35. DOI: 10.3778/j.issn.1002-8331.2003-0177.

    LIU M Q, ZHANG X G, XU G Y, et al. Review of development of single robot SLAM technology and related mainstream technology[J]. Computer Engineering and Applications, 2020, 56(18): 25-35. DOI: 10.3778/j.issn.1002-8331.2003-0177.
    [6] ENGEL J, SCHÖPS T, CREMERS D. LSD-SLAM: large-scale direct monocular SLAM[C]//Proceedings of the 13th European Conference on Computer Vision. Zurich: Springer, 2014: 834-849. DOI: 10.1007/978-3-319-10605-2_54.
    [7] ENGEL J, KOLTUN V, CREMERS D. Direct sparse odometry[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(3): 611-625. DOI: 10.1109/TPAMI.2017.2658577.
    [8] QIN T, LI P L, SHEN S J. VINS-mono: a robust and versatile monocular visual-inertial state estimator[J]. IEEE Transactions on Robotics, 2018, 34(4): 1004-1020. DOI: 10.1109/tro.2018.2853729
    [9] MUR-ARTAL R, TARDÓS J D. Visual-inertial monocular SLAM with map reuse[J]. IEEE Robotics and Automation Letters, 2017, 2(2): 796-803. DOI: 10.1109/LRA.2017.2653359.
    [10] VON STUMBERG L, USENKO V, CREMERS D. Direct sparse visual-inertial odometry using dynamic marginalization[C]//Proceedings of 2018 IEEE International Conference on Robotics and Automation. Brisbane: IEEE, 2018: 2510-2517. DOI: 10.1109/ICRA.2018.8462905.
    [11] FORSTER C, CARLONE L, DELLAERT F, et al. On-manifold preintegration for real-time visual--inertial odometry[J]. IEEE Transactions on Robotics, 2017, 33(1): 1-21. DOI: 10.1109/TRO.2016.2597321.
    [12] 高翔, 张涛, 等. 视觉SLAM十四讲: 从理论到实践[M]. 北京: 电子工业出版社, 2017: 320-330.

    GAO X, ZHANG T, et al. Visual slam14: from theory to practice[M]. Beijing: Publishing House of Electronics Industry, 2017: 320-330.
    [13] PIZZOLI M, FORSTER C, SCARAMUZZA D. REMODE: probabilistic, monocular dense reconstruction in real time[C]//Proceedings of 2014 IEEE International Conference on Robotics and Automation. Hong Kong, China: IEEE, 2014: 2609-2616. DOI: 10.1109/ICRA.2014.6907233.
    [14] SIBLEY G, MATTHIES L, SUKHATME G. Sliding window filter with application to planetary landing[J]. Journal of Field Robotics, 2010, 27(5): 587-608. DOI: 10.1002/rob.20360.
    [15] CAMPOS C, ELVIRA R, RODRÍGUEZ J J G, et al. ORB-SLAM3: an accurate open-source library for visual, visual-inertial, and multimap SLAM[J]. IEEE Transactions on Robotics, 2020, 37(6): 1874-1890. DOI: 10.1109/TRO.2021.3075644.
    [16] 刘艳娇, 张云洲, 荣磊, 等. 基于直接法与惯性测量单元融合的视觉里程计[J]. 机器人, 2019, 41(5): 683-689. DOI: 10.13973/j.cnki.robot.180601.

    LIU Y J, ZHANG Y Z, RONG L, et al. Visual odometry based on the direct method and the inertial measurement unit[J]. Robot, 2019, 41(5): 683-689. DOI: 10.13973/j.cnki.robot.180601.
  • 加载中
图(9) / 表(2)
计量
  • 文章访问数:  63
  • HTML全文浏览量:  51
  • PDF下载量:  10
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-10-22
  • 修回日期:  2021-12-07
  • 网络出版日期:  2022-08-15

目录

    /

    返回文章
    返回