在机器人学和计算机视觉中,视觉里程计是通过分析相关的相机图像以确定机器人位置和方向的过程。视觉里程计已被广泛应用于机器人领域,例如火星探测车。[1]
在导航中,里程计利用来自执行器的运动数据(例如旋转编码器测量的车轮速度)估计位置随时间的变化。传统的里程计技术虽然对轮式或履带式车辆有用,但不能应用于以非标准方式移动的机器人,如足式机器人。此外,里程计普遍存在精度问题,因为车轮在地板上存在滑动,相较于车轮旋转,其产生了不均匀的行驶距离。当车辆在非光滑表面上行驶时,误差将会更大。随着时间的推移里程计读数越来越不可靠,因为误差会不断积累复合。
视觉里程计使用连续的相机图像来估计行进距离,从而确定等效里程计信息。视觉里程计允许机器人或车辆在任何表面上使用任何类型的运动来提高导航精度。
视觉里程计有各种类型。
根据摄像机设置,摄像机可分为单目摄像机(单摄像机)、立体摄像机(立体设置中的两个摄像机)。
传统视觉里程计的视觉信息是通过特征点法获得的,该方法提取图像特征点,并在图像序列中跟踪它们。最新的视觉里程计研究提供了一种替代方法,称为直接法,它直接使用图像序列中的像素强度作为视觉输入。还存在有混合方法。
如果视觉里程计系统采用了惯性测量单元(IMU),其通常被称为视觉惯性里程计(VIO)。
大多数现有的视觉里程计方法基于以下的步骤。
特征点法的一种替代方法是“直接”或基于外观的视觉里程计技术,该技术直接最小化传感器空间中的误差,并避免了特征匹配和提取。[4][12][13]
自运动定义为相机在环境中的三维运动。[16] 在计算机视觉领域,自运动指的是相机相对于刚性场景的运动估计。[17] 自运动估计的一个例子是估计汽车相对于车道线或车辆所观测路标的相对运动。自运动估计在自主机器人导航应用中非常重要[18]
相机自运动估计的目标是使用相机拍摄的图像序列来确定相机在环境中的3D运动。[19] 在环境中估计相机运动的过程涉及对移动相机捕获的一系列图像使用视觉里程计技术。[20] 通常通过特征检测,以从单目相机或立体相机生成图像序列中的[16] 两个图像帧构建光流。[20] 使用立体图像帧有利于减少误差,并可以提供额外的深度和比例信息。[21][22]
特征在第一帧中检测,在第二帧中匹配。然后,该信息用于为这两幅图像中检测到的特征制作光流场。光流场说明了特征是如何从一个点(扩展点)偏离的。扩展点可以从光流场中进行检测,用以指示相机的运动方向,从而提供对相机运动的估计。
还有其他一些从图像中提取自运动信息的方法,包括不用特征检测与光流场而是直接使用图像强度的方法。[16]
^Maimone, M.; Cheng, Y.; Matthies, L. (2007). "Two years of Visual Odometry on the Mars Exploration Rovers" (PDF). Journal of Field Robotics. 24 (3): 169–186. doi:10.1002/rob.20184. Retrieved 2008-07-10..
^Chhaniyara, Savan; KASPAR ALTHOEFER; LAKMAL D. SENEVIRATNE (2008). "Visual Odometry Technique Using Circular Marker Identification For Motion Parameter Estimation". Advances in Mobile Robotics: Proceedings of the Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines, Coimbra, Portugal. The Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines. 11. World Scientific, 2008..
^Nister, D; Naroditsky, O.; Bergen, J (Jan 2004). Visual Odometry. Computer Vision and Pattern Recognition, 2004. CVPR 2004. 1. pp. I–652 – I–659 Vol.1. doi:10.1109/CVPR.2004.1315094..
^Comport, A.I.; Malis, E.; Rives, P. (2010). F. Chaumette; P. Corke; P. Newman, eds. "Real-time Quadrifocal Visual Odometry". International Journal of Robotics Research, Special Issue on Robot Vision. 29 (2–3): 245–266. CiteSeerX 10.1.1.720.3113. doi:10.1177/0278364909356601..
^Scaramuzza, D.; Siegwart, R. (October 2008). "Appearance-Guided Monocular Omnidirectional Visual Odometry for Outdoor Ground Vehicles". IEEE Transactions on Robotics: 1–12. Retrieved 2008-10-20..
^Corke, P.; Strelow, D.; Singh, S. "Omnidirectional visual odometry for a planetary rover". Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. 4..
^Campbell, J.; Sukthankar, R.; Nourbakhsh, I.; Pittsburgh, I.R. "Techniques for evaluating optical flow for visual odometry in extreme terrain". Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. 4..
^Sunderhauf, N.; Konolige, K.; Lacroix, S.; Protzel, P. (2005). "Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle" (PDF). Levi, Schanz, Lafrenz, and Avrutin, Editors, Tagungsband Autonome Mobile Systeme: 157–163. Retrieved 2008-07-10..
^Konolige, K.; Agrawal, M.; Bolles, R.C.; Cowan, C.; Fischler, M.; Gerkey, B.P. (2006). "Outdoor mapping and navigation using stereo vision" (PDF). Proc. Of the Intl. Symp. On Experimental Robotics (ISER). Retrieved 2008-07-10..
^Olson, C.F.; Matthies, L.; Schoppers, M.; Maimone, M.W. (2002). "Rover navigation using stereo ego-motion" (PDF). Robotics and Autonomous Systems. 43 (4): 215–229. doi:10.1016/s0921-8890(03)00004-6. Retrieved 2010-06-06..
^Cheng, Y.; Maimone, M.W.; Matthies, L. (2006). "Visual Odometry on the Mars Exploration Rovers" (PDF). IEEE Robotics and Automation Magazine. 13 (2): 54–62. CiteSeerX 10.1.1.297.4693. doi:10.1109/MRA.2006.1638016. Retrieved 2008-07-10..
^Engel, Jakob; Schöps, Thomas; Cremers, Daniel (2014). "European Conference on Computer Vision (ECCV) 2014" (PDF). |contribution= ignored (help).
^Engel, Jakob; Sturm, Jürgen; Cremers, Daniel (2013). "IEEE International Conference on Computer Vision (ICCV)" (PDF). |contribution= ignored (help).
^Zaman, M. (2007). "High Precision Relative Localization Using a Single Camera". Robotics and Automation, 2007.(ICRA 2007). Proceedings. 2007 IEEE International Conference on..
^Zaman, M. (2007). "High resolution relative localisation using two cameras". Journal of Robotics and Autonomous Systems (JRAS). 55 (9): 685–692. doi:10.1016/j.robot.2007.05.008..
^Irani, M.; Rousso, B.; Peleg S. (June 1994). "Recovery of Ego-Motion Using Image Stabilization" (PDF). IEEE Computer Society Conference on Computer Vision and Pattern Recognition: 21–23. Retrieved 7 June 2010..
^Burger, W.; Bhanu, B. (Nov 1990). "Estimating 3D egomotion from perspective image sequence". IEEE Transactions on Pattern Analysis and Machine Intelligence. 12 (11): 1040–1058. doi:10.1109/34.61704..
^Shakernia, O.; Vidal, R.; Shankar, S. (2003). "Omnidirectional Egomotion Estimation From Back-projection Flow" (PDF). Conference on Computer Vision and Pattern Recognition Workshop. 7: 82. CiteSeerX 10.1.1.5.8127. doi:10.1109/CVPRW.2003.10074. Retrieved 7 June 2010..
^Tian, T.; Tomasi, C.; Heeger, D. (1996). "Comparison of Approaches to Egomotion Computation" (PDF). IEEE Computer Society Conference on Computer Vision and Pattern Recognition: 315. Archived from the original (PDF) on August 8, 2008. Retrieved 7 June 2010..
^Milella, A.; Siegwart, R. (January 2006). "Stereo-Based Ego-Motion Estimation Using Pixel Tracking and Iterative Closest Point" (PDF). IEEE International Conference on Computer Vision Systems: 21. Retrieved 7 June 2010..
^Olson, C. F.; Matthies, L.; Schoppers, M.; Maimoneb M. W. (June 2003). "Rover navigation using stereo ego-motion" (PDF). Robotics and Autonomous Systems. 43 (9): 215–229. doi:10.1016/s0921-8890(03)00004-6. Retrieved 7 June 2010..
^Sudin Dinesh, Koteswara Rao, K. ; Unnikrishnan, M. ; Brinda, V. ; Lalithambika, V.R. ; Dhekane, M.V. "Improvements in Visual Odometry Algorithm for Planetary Exploration Rovers". IEEE International Conference on Emerging Trends in Communication, Control, Signal Processing & Computing Applications (C2SPCA), 2013.
暂无