The Wayback Machine - https://web.archive.org/web/20221028222054/https://baike.sogou.com/kexue/d10406.htm

多传感器数据融合技术

编辑
欧洲战斗机上的传感器融合

传感器融合是将感觉数据或来自不同来源的数据组合在一起,以此得到的信息相比于单独使用某一来源的数据具有更小的不确定性。在这种情况下,术语“不确定性降低” 意味着更精确、更完整、更可靠,或指产生了新的内容,例如立体视觉(通过组合两个视点略有不同的相机二维图像来计算深度信息)。[1][2]

融合过程的数据源不一定要来自相同类型的传感器。人们可以区分直接融合,间接融合,以及二者的进一步组合。直接融合是融合来自一组异质\同质( homogeneous )传感器、软传感器和传感器数据历史值的传感器数据,而间接融合使用信息源,如环境信息或人为输入的先验 知识。

传感器融合也称为 (多传感器)数据融合 ,是信息融合 的子集。

1 传感器示例编辑

  • 加速度计
  • 电子辅助测量传感器(ESM)
  • Flash激光雷达
  • 全球定位系统(GPS)
  • 红外/热成像相机
  • 磁性传感器
  • 微机电系统(MEMS)
  • 相控阵
  • 雷达
  • 射电望远镜,如拟建的平方千米阵列( Square Kilometre Array),其为史上建造的最大的传感器
  • 扫描式激光雷达
  • 地震传感器
  • 声纳和其他声学传感器
  • 声纳浮标
  • 摄像机
  • →附加列表

2 算法编辑

传感器融合这一术语涵盖多种算法,包括:

  • 中心极限定理
  • 卡尔曼滤波器
  • 贝叶斯网络
  • Dempster/Shafer理论
  • 卷积神经网络

3 计算示例编辑

传感器融合计算的两个示例如下所示。

   表示两个具有噪声的传感器测量值,    分别为噪声的方差。获取组合测量值  的一种方法是中心极限定理,其也应用于弗雷泽-波特(Fraser-Potter)固定区间光滑器中, 即[3][4]

  ,

其中   是组合估计的方差。可以看出,融合结果仅仅是两个测量值的线性组合,这两个测量值根据它们各自的噪声方差进行加权。

融合两个测量值的另一种方法是使用最优卡尔曼滤波器。假设数据由一阶系统生成,  表示滤波器的里卡蒂方程的解。通过在增益计算中应用克莱姆法则,滤波器增益由下式给出: [4]

 

根据上式可知,当第一个测量值无噪声时,滤波器忽略第二个测量值,反之亦然。也就是说,组合估计值根据测量质量进行加权。

4 中心式与分布式编辑

在传感器融合中,中心式与分布式指的是数据融合处理的位置。在中心式融合中,客户机只需将所有数据转发到中心位置,中心位置的某个实体负责关联和融合数据。在分布式的情况下,客户机承担融合数据的全部责任。“在这种情况下,每个传感器或平台都可视为具有一定决策自主性的智能体。”[5]

中心式和分布式系统具有多种组合。

传感器配置的另一种分类依据传感器之间信息流的调配机制。[6][7]这些机制提供了解决冲突或分歧的方法,并支持动态感测策略的开发。如果每个节点都提供相同属性的独立度量,则传感器处于冗余(或竞争)配置。其可通过比较来自多个节点的信息进行纠错。冗余策略经常与高级融合一起应用于表决过程之中[8][9]。当多个信息源提供相同特征的不同信息时,就称为互补配置。该策略用于在决策算法中融合原始数据级别的信息。互补特征通常应用于神经网络的运动识别任务[10][11]、隐马尔可夫模型[12][13]、支持向量机 [14]、聚类方法和其他技术之中[14][13]。协同式传感器融合使用多个独立传感器提取的信息来提供单个传感器无法提供的信息。例如,安装与于身体部位的不同传感器可以检测它们之间的角度。协同式传感器配置中,信息无法从单个节点获得。协同式信息融合可用于运动识别[15],步态分析,运动分析[16][17][18]

5 融合级别编辑

常用的传感器融合有几个类别或级别。[19][20][21][22][23][24]

  • 0级——数据对齐
  • 1级——实体评估(例如信号/特征/对象)。
    • 跟踪和目标检测/识别/确认
  • 2级——状况评估
  • 3级——影响评估
  • 4级——过程改进(即传感器管理)
  • 5级——用户细化

传感器融合等级也可以基于用于提供融合算法的信息种类来定义[25]。更准确地说,传感器融合可以融合来自不同来源的原始数据、推断特征甚至单个节点做出的决策。

  • 数据级-数据级(或早期)融合旨在融合来自多个来源的原始数据,并在最底层的抽象层表示融合技术。它是许多应用领域中最常见的传感器融合技术。数据级融合算法通常旨在结合多种同质的传感数据来源,以获得更准确的融合读数[26]。当使用便携式设备时,数据压缩是一个重要因素,因为从多个来源收集原始信息会产生巨大的信息空间,这可能会对便携式系统的存储器或通信带宽造成问题。数据级信息融合倾向于产生较大的输入空间,这减慢了决策过程。此外,数据级融合通常无法处理不完整的测量。如果一种传感器模式由于故障、失效或其他原因变得不可用,整个系统可能会出现不确定的结果。
  • 特征级-特征表示每个传感节点板级计算的信息。这些特征随后被发送到融合节点以提供融合算法[27]。这个过程产生的信息空间相对于数据级融合更小,这更有利于计算负荷。显然,正确选择分类过程所需要的特征是很重要的:选择最有效的特征集是方法设计的一个主要方面。采用合理的相关检测特征和特征子集的特征选择算法能提高识别精度,但是通常需要采用很大的训练集来找到最重要的特征子集。[25]
  • 决策级-决策级(或后期)融合是从由多个节点的单个(通常较弱)决策生成的一组假设中选择一个假设的过程[28]。它是最高级的抽象,并使用已经通过初步数据或特征级处理的信息。决策融合的主要目标是使用元级分类器,而来自节点的数据已经通过特征提取进行了预处理[29]。典型地,决策级传感器融合用于分类和识别行为,两种最常见的方法是多数投票法和朴素贝叶斯[30]。决策级融合的优势包括了通信带宽和决策精度的提高。它还允许了异构传感器的组合[27]

6 应用编辑

传感器融合的一个应用是全球定位系统/惯性导航系统,用各种不同的方法对全球定位系统和惯性导航系统数据进行融合,例如扩展卡尔曼滤波器。这在使用低成本传感器确定飞机高度时非常有用。[31]另一个例子是利用道路侧收集的声学、图像和传感器数据,采用数据融合方法来确定交通状态(低交通量状态、交通堵塞状态、中等流量状态)。[32]

虽然从技术上来说,现在基于卷积神经网络的方法不属于专用的传感器融合方法,但其可以同时处理非常多通道的传感器数据(例如数百波段的高光谱成像[33])并融合相关信息以产生分类结果。

参考文献

  • [1]

    ^Elmenreich, W. (2002). Sensor Fusion in Time-Triggered Systems, PhD Thesis (PDF). Vienna, Austria: Vienna University of Technology. p. 173..

  • [2]

    ^Haghighat, Mohammad Bagher Akbari; Aghagolzadeh, Ali; Seyedarabi, Hadi (2011). "Multi-focus image fusion for visual sensor networks in DCT domain". Computers & Electrical Engineering. 37 (5): 789–797. doi:10.1016/j.compeleceng.2011.04.016..

  • [3]

    ^Maybeck, S. (1982). Stochastic Models, Estimating, and Control. River Edge, NJ: Academic Press..

  • [4]

    ^Einicke, G.A. (2012). Smoothing, Filtering and Prediction: Estimating the Past, Present and Future. Rijeka, Croatia: Intech. ISBN 978-953-307-752-9..

  • [5]

    ^N. Xiong; P. Svensson (2002). "Multi-sensor management for information fusion: issues and approaches". Information Fusion. p. 3(2):163–186..

  • [6]

    ^Durrant-Whyte, Hugh F. (2016). "Sensor Models and Multisensor Integration". The International Journal of Robotics Research. 7 (6): 97–113. doi:10.1177/027836498800700608. ISSN 0278-3649..

  • [7]

    ^Galar, Diego; Kumar, Uday (2017). eMaintenance: Essential Electronic Tools for Efficiency. Academic Press. p. 26. ISBN 9780128111543..

  • [8]

    ^Li, Wenfeng; Bao, Junrong; Fu, Xiuwen; Fortino, Giancarlo; Galzarano, Stefano (2012). "Human Postures Recognition Based on D-S Evidence Theory and Multi-sensor Data Fusion": 912–917. doi:10.1109/CCGrid.2012.144..

  • [9]

    ^Fortino, Giancarlo; Gravina, Raffaele (2015). "Fall-MobileGuard: a Smart Real-Time Fall Detection System". doi:10.4108/eai.28-9-2015.2261462..

  • [10]

    ^Tao, Shuai; Zhang, Xiaowei; Cai, Huaying; Lv, Zeping; Hu, Caiyou; Xie, Haiqun (2018). "Gait based biometric personal authentication by using MEMS inertial sensors". Journal of Ambient Intelligence and Humanized Computing. 9 (5): 1705–1712. doi:10.1007/s12652-018-0880-6. ISSN 1868-5137..

  • [11]

    ^Dehzangi, Omid; Taherisadr, Mojtaba; ChangalVala, Raghvendar (2017). "IMU-Based Gait Recognition Using Convolutional Neural Networks and Multi-Sensor Fusion". Sensors. 17 (12): 2735. doi:10.3390/s17122735. ISSN 1424-8220..

  • [12]

    ^Guenterberg, E.; Yang, A.Y.; Ghasemzadeh, H.; Jafari, R.; Bajcsy, R.; Sastry, S.S. (2009). "A Method for Extracting Temporal Parameters Based on Hidden Markov Models in Body Sensor Networks With Inertial Sensors". IEEE Transactions on Information Technology in Biomedicine. 13 (6): 1019–1030. doi:10.1109/TITB.2009.2028421. ISSN 1089-7771..

  • [13]

    ^Parisi, Federico; Ferrari, Gianluigi; Giuberti, Matteo; Contin, Laura; Cimolin, Veronica; Azzaro, Corrado; Albani, Giovanni; Mauro, Alessandro (2016). "Inertial BSN-Based Characterization and Automatic UPDRS Evaluation of the Gait Task of Parkinsonians". IEEE Transactions on Affective Computing. 7 (3): 258–271. doi:10.1109/TAFFC.2016.2549533. ISSN 1949-3045..

  • [14]

    ^Gao, Lei; Bourke, A.K.; Nelson, John (2014). "Evaluation of accelerometer based multi-sensor versus single-sensor activity recognition systems". Medical Engineering & Physics. 36 (6): 779–785. doi:10.1016/j.medengphy.2014.02.012. ISSN 1350-4533..

  • [15]

    ^Xu, James Y.; Wang, Yan; Barrett, Mick; Dobkin, Bruce; Pottie, Greg J.; Kaiser, William J. (2016). "Personalized Multilayer Daily Life Profiling Through Context Enabled Activity Classification and Motion Reconstruction: An Integrated System Approach". IEEE Journal of Biomedical and Health Informatics. 20 (1): 177–188. doi:10.1109/JBHI.2014.2385694. ISSN 2168-2194..

  • [16]

    ^Chia Bejarano, Noelia; Ambrosini, Emilia; Pedrocchi, Alessandra; Ferrigno, Giancarlo; Monticone, Marco; Ferrante, Simona (2015). "A Novel Adaptive, Real-Time Algorithm to Detect Gait Events From Wearable Sensors". IEEE Transactions on Neural Systems and Rehabilitation Engineering. 23 (3): 413–422. doi:10.1109/TNSRE.2014.2337914. ISSN 1534-4320..

  • [17]

    ^Wang, Zhelong; Qiu, Sen; Cao, Zhongkai; Jiang, Ming (2013). "Quantitative assessment of dual gait analysis based on inertial sensors with body sensor network". Sensor Review. 33 (1): 48–56. doi:10.1108/02602281311294342. ISSN 0260-2288..

  • [18]

    ^Kong, Weisheng; Wanning, Lauren; Sessa, Salvatore; Zecca, Massimiliano; Magistro, Daniele; Takeuchi, Hikaru; Kawashima, Ryuta; Takanishi, Atsuo (2017). "Step Sequence and Direction Detection of Four Square Step Test". IEEE Robotics and Automation Letters. 2 (4): 2194–2200. doi:10.1109/LRA.2017.2723929. ISSN 2377-3766..

  • [19]

    ^Rethinking JDL Data Fusion Levels.

  • [20]

    ^Blasch, E., Plano, S. (2003) “Level 5: User Refinement to aid the Fusion Process”, Proceedings of the SPIE, Vol. 5099..

  • [21]

    ^J. Llinas; C. Bowman; G. Rogova; A. Steinberg; E. Waltz; F. White (2004). Revisiting the JDL data fusion model II. International Conference on Information Fusion. CiteSeerX 10.1.1.58.2996..

  • [22]

    ^Blasch, E. (2006) "Sensor, user, mission (SUM) resource management and their interaction with level 2/3 fusion[永久失效连结]" International Conference on Information Fusion..

  • [23]

    ^https://web.archive.org/web/20221028222054/http://defensesystems.com/articles/2009/09/02/c4isr1-sensor-fusion.aspx.

  • [24]

    ^Blasch, E., Steinberg, A., Das, S., Llinas, J., Chong, C.-Y., Kessler, O., Waltz, E., White, F. (2013) "Revisiting the JDL model for information Exploitation," International Conference on Information Fusion..

  • [25]

    ^Gravina, Raffaele; Alinia, Parastoo; Ghasemzadeh, Hassan; Fortino, Giancarlo (2017). "Multi-sensor fusion in body sensor networks: State-of-the-art and research challenges". Information Fusion. 35: 68–80. doi:10.1016/j.inffus.2016.09.005. ISSN 1566-2535..

  • [26]

    ^Gao, Teng; Song, Jin-Yan; Zou, Ji-Yan; Ding, Jin-Hua; Wang, De-Quan; Jin, Ren-Cheng (2015). "An overview of performance trade-off mechanisms in routing protocol for green wireless sensor networks". Wireless Networks. 22 (1): 135–157. doi:10.1007/s11276-015-0960-x. ISSN 1022-0038..

  • [27]

    ^Chen, Chen; Jafari, Roozbeh; Kehtarnavaz, Nasser (2015). "A survey of depth and inertial sensor fusion for human action recognition". Multimedia Tools and Applications. 76 (3): 4405–4425. doi:10.1007/s11042-015-3177-1. ISSN 1380-7501..

  • [28]

    ^Banovic, Nikola; Buzali, Tofi; Chevalier, Fanny; Mankoff, Jennifer; Dey, Anind K. (2016). "Modeling and Understanding Human Routine Behavior": 248–260. doi:10.1145/2858036.2858557..

  • [29]

    ^Maria, Aileni Raluca; Sever, Pasca; Carlos, Valderrama (2015). "Biomedical sensors data fusion algorithm for enhancing the efficiency of fault-tolerant systems in case of wearable electronics device": 1–4. doi:10.1109/ROLCG.2015.7367228..

  • [30]

    ^Bahrepour, Majid; Meratnia, Nirvana; Taghikhaki, Zahra; M. Having, Paul J. (2011). "Sensor Fusion-Based Activity Recognition for Parkinson Patients". doi:10.5772/16646..

  • [31]

    ^Gross, Jason; Yu Gu; Matthew Rhudy; Srikanth Gururajan; Marcello Napolitano (July 2012). "Flight Test Evaluation of Sensor Fusion Algorithms for Attitude Estimation". IEEE Transactions on Aerospace and Electronic Systems. 48 (3): 2128–2139. doi:10.1109/TAES.2012.6237583..

  • [32]

    ^Joshi, V., Rajamani, N., Takayuki, K., Prathapaneni, N., Subramaniam, L. V., (2013). Information Fusion Based Learning for Frugal Traffic State Sensing. Proceedings of the Twenty-Third International Joint Conference on Artificial Intelligence.CS1 maint: Multiple names: authors list (link).

  • [33]

    ^Ran, Lingyan; Zhang, Yanning; Wei, Wei; Zhang, Qilin (2017-10-23). "A Hyperspectral Image Classification Framework with Spatial Pixel Pair Features". Sensors. 17 (10): 2421. doi:10.3390/s17102421..

阅读 576
版本记录
  • 暂无