The Wayback Machine - https://web.archive.org/web/20221025114450/https://baike.sogou.com/kexue/d10539.htm

视觉里程计

编辑
视频序列中运动物体的光流矢量

在机器人学和计算机视觉中,视觉里程计是通过分析相关的相机图像以确定机器人位置和方向的过程。视觉里程计已被广泛应用于机器人领域,例如火星探测车。[1]

1 概览编辑

在导航中,里程计利用来自执行器的运动数据(例如旋转编码器测量的车轮速度)估计位置随时间的变化。传统的里程计技术虽然对轮式或履带式车辆有用,但不能应用于以非标准方式移动的机器人,如足式机器人。此外,里程计普遍存在精度问题,因为车轮在地板上存在滑动,相较于车轮旋转,其产生了不均匀的行驶距离。当车辆在非光滑表面上行驶时,误差将会更大。随着时间的推移里程计读数越来越不可靠,因为误差会不断积累复合。

视觉里程计使用连续的相机图像来估计行进距离,从而确定等效里程计信息。视觉里程计允许机器人或车辆在任何表面上使用任何类型的运动来提高导航精度。

2 类型编辑

视觉里程计有各种类型。

2.1 单目型和立体型

根据摄像机设置,摄像机可分为单目摄像机(单摄像机)、立体摄像机(立体设置中的两个摄像机)。

VIO广泛应用于商用四轴飞行器,在GPS缺失的情况下提供定位。

2.2 特征点法和直接法

传统视觉里程计的视觉信息是通过特征点法获得的,该方法提取图像特征点,并在图像序列中跟踪它们。最新的视觉里程计研究提供了一种替代方法,称为直接法,它直接使用图像序列中的像素强度作为视觉输入。还存在有混合方法。

2.3 视觉惯性里程计

如果视觉里程计系统采用了惯性测量单元(IMU),其通常被称为视觉惯性里程计(VIO)。

3 算法编辑

大多数现有的视觉里程计方法基于以下的步骤。

  1. 获取输入图像:使用单个相机[2][3] ,立体相机,[3][4] 或全向相机。[5][6]
  2. 图像校正:应用图像处理技术消除镜头失真等。
  3. 特征检测:定义兴趣点算子,跨帧匹配特征,构建光流场。
    1. 使用相关性建立两幅图像的对应关系,但不进行长期特征跟踪。
    2. 特征提取与特征关联。
    3. 构造光流场(卢卡斯-卡纳德方法)。
  4. 检查流场向量是否有潜在的跟踪误差,并移除异常值。[7]
  5. 用光流估算相机运动。[8][9][10][11]  
    1. 选择1:用于状态估计分布维护的卡尔曼滤波器。
    2. 选择2:基于两个相邻图像之间的重投影误差,找到最小化损失函数的几何3D属性。这可以通过数值优化或随机抽样来实现。
  6. 定期重新填充跟踪点,以保持图像的覆盖范围。

特征点法的一种替代方法是“直接”或基于外观的视觉里程计技术,该技术直接最小化传感器空间中的误差,并避免了特征匹配和提取。[4][12][13]

另一种被称为“视觉测量法”的方法使用相位相关而不是特征提取来估计图像之间的平面旋转平移。[14][15]

4 自运动编辑

自运动定义为相机在环境中的三维运动。[16] 在计算机视觉领域,自运动指的是相机相对于刚性场景的运动估计。[17] 自运动估计的一个例子是估计汽车相对于车道线或车辆所观测路标的相对运动。自运动估计在自主机器人导航应用中非常重要[18]

4.1 概览

相机自运动估计的目标是使用相机拍摄的图像序列来确定相机在环境中的3D运动。[19] 在环境中估计相机运动的过程涉及对移动相机捕获的一系列图像使用视觉里程计技术。[20] 通常通过特征检测,以从单目相机或立体相机生成图像序列中的[16] 两个图像帧构建光流。[20] 使用立体图像帧有利于减少误差,并可以提供额外的深度和比例信息。[21][22]

特征在第一帧中检测,在第二帧中匹配。然后,该信息用于为这两幅图像中检测到的特征制作光流场。光流场说明了特征是如何从一个点(扩展点)偏离的。扩展点可以从光流场中进行检测,用以指示相机的运动方向,从而提供对相机运动的估计。

还有其他一些从图像中提取自运动信息的方法,包括不用特征检测与光流场而是直接使用图像强度的方法。[16]

参考文献

  • [1]

    ^Maimone, M.; Cheng, Y.; Matthies, L. (2007). "Two years of Visual Odometry on the Mars Exploration Rovers" (PDF). Journal of Field Robotics. 24 (3): 169–186. doi:10.1002/rob.20184. Retrieved 2008-07-10..

  • [2]

    ^Chhaniyara, Savan; KASPAR ALTHOEFER; LAKMAL D. SENEVIRATNE (2008). "Visual Odometry Technique Using Circular Marker Identification For Motion Parameter Estimation". Advances in Mobile Robotics: Proceedings of the Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines, Coimbra, Portugal. The Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines. 11. World Scientific, 2008..

  • [3]

    ^Nister, D; Naroditsky, O.; Bergen, J (Jan 2004). Visual Odometry. Computer Vision and Pattern Recognition, 2004. CVPR 2004. 1. pp. I–652 – I–659 Vol.1. doi:10.1109/CVPR.2004.1315094..

  • [4]

    ^Comport, A.I.; Malis, E.; Rives, P. (2010). F. Chaumette; P. Corke; P. Newman, eds. "Real-time Quadrifocal Visual Odometry". International Journal of Robotics Research, Special Issue on Robot Vision. 29 (2–3): 245–266. CiteSeerX 10.1.1.720.3113. doi:10.1177/0278364909356601..

  • [5]

    ^Scaramuzza, D.; Siegwart, R. (October 2008). "Appearance-Guided Monocular Omnidirectional Visual Odometry for Outdoor Ground Vehicles". IEEE Transactions on Robotics: 1–12. Retrieved 2008-10-20..

  • [6]

    ^Corke, P.; Strelow, D.; Singh, S. "Omnidirectional visual odometry for a planetary rover". Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. 4..

  • [7]

    ^Campbell, J.; Sukthankar, R.; Nourbakhsh, I.; Pittsburgh, I.R. "Techniques for evaluating optical flow for visual odometry in extreme terrain". Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. 4..

  • [8]

    ^Sunderhauf, N.; Konolige, K.; Lacroix, S.; Protzel, P. (2005). "Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle" (PDF). Levi, Schanz, Lafrenz, and Avrutin, Editors, Tagungsband Autonome Mobile Systeme: 157–163. Retrieved 2008-07-10..

  • [9]

    ^Konolige, K.; Agrawal, M.; Bolles, R.C.; Cowan, C.; Fischler, M.; Gerkey, B.P. (2006). "Outdoor mapping and navigation using stereo vision" (PDF). Proc. Of the Intl. Symp. On Experimental Robotics (ISER). Retrieved 2008-07-10..

  • [10]

    ^Olson, C.F.; Matthies, L.; Schoppers, M.; Maimone, M.W. (2002). "Rover navigation using stereo ego-motion" (PDF). Robotics and Autonomous Systems. 43 (4): 215–229. doi:10.1016/s0921-8890(03)00004-6. Retrieved 2010-06-06..

  • [11]

    ^Cheng, Y.; Maimone, M.W.; Matthies, L. (2006). "Visual Odometry on the Mars Exploration Rovers" (PDF). IEEE Robotics and Automation Magazine. 13 (2): 54–62. CiteSeerX 10.1.1.297.4693. doi:10.1109/MRA.2006.1638016. Retrieved 2008-07-10..

  • [12]

    ^Engel, Jakob; Schöps, Thomas; Cremers, Daniel (2014). "European Conference on Computer Vision (ECCV) 2014" (PDF). |contribution= ignored (help).

  • [13]

    ^Engel, Jakob; Sturm, Jürgen; Cremers, Daniel (2013). "IEEE International Conference on Computer Vision (ICCV)" (PDF). |contribution= ignored (help).

  • [14]

    ^Zaman, M. (2007). "High Precision Relative Localization Using a Single Camera". Robotics and Automation, 2007.(ICRA 2007). Proceedings. 2007 IEEE International Conference on..

  • [15]

    ^Zaman, M. (2007). "High resolution relative localisation using two cameras". Journal of Robotics and Autonomous Systems (JRAS). 55 (9): 685–692. doi:10.1016/j.robot.2007.05.008..

  • [16]

    ^Irani, M.; Rousso, B.; Peleg S. (June 1994). "Recovery of Ego-Motion Using Image Stabilization" (PDF). IEEE Computer Society Conference on Computer Vision and Pattern Recognition: 21–23. Retrieved 7 June 2010..

  • [17]

    ^Burger, W.; Bhanu, B. (Nov 1990). "Estimating 3D egomotion from perspective image sequence". IEEE Transactions on Pattern Analysis and Machine Intelligence. 12 (11): 1040–1058. doi:10.1109/34.61704..

  • [18]

    ^Shakernia, O.; Vidal, R.; Shankar, S. (2003). "Omnidirectional Egomotion Estimation From Back-projection Flow" (PDF). Conference on Computer Vision and Pattern Recognition Workshop. 7: 82. CiteSeerX 10.1.1.5.8127. doi:10.1109/CVPRW.2003.10074. Retrieved 7 June 2010..

  • [19]

    ^Tian, T.; Tomasi, C.; Heeger, D. (1996). "Comparison of Approaches to Egomotion Computation" (PDF). IEEE Computer Society Conference on Computer Vision and Pattern Recognition: 315. Archived from the original (PDF) on August 8, 2008. Retrieved 7 June 2010..

  • [20]

    ^Milella, A.; Siegwart, R. (January 2006). "Stereo-Based Ego-Motion Estimation Using Pixel Tracking and Iterative Closest Point" (PDF). IEEE International Conference on Computer Vision Systems: 21. Retrieved 7 June 2010..

  • [21]

    ^Olson, C. F.; Matthies, L.; Schoppers, M.; Maimoneb M. W. (June 2003). "Rover navigation using stereo ego-motion" (PDF). Robotics and Autonomous Systems. 43 (9): 215–229. doi:10.1016/s0921-8890(03)00004-6. Retrieved 7 June 2010..

  • [22]

    ^Sudin Dinesh, Koteswara Rao, K. ; Unnikrishnan, M. ; Brinda, V. ; Lalithambika, V.R. ; Dhekane, M.V. "Improvements in Visual Odometry Algorithm for Planetary Exploration Rovers". IEEE International Conference on Emerging Trends in Communication, Control, Signal Processing & Computing Applications (C2SPCA), 2013.

阅读 46
版本记录
  • 暂无