首页/文章/ 详情

综述 | 数字孪生智能故障诊断最新进展综述(下)

3小时前浏览3

本期给大家推荐胡昌华教授的数字孪生智能故障诊断最新进展综述(下)。随着工业4.0时代的到来,智能制造和数字技术迅速发展,对工业设备的稳定性、可靠性和安全性提出了更高的要求。最近,数字孪生为智能故障诊断提供了一种新的解决方案。本文将从概念、关键技术、应用场景和挑战展望等方面对数字孪生技术在智能故障诊断的发展应用进行综述。

论文链接:通过点击本文左下角阅读原文进行在线阅读及下载

论文基本信息

论文题目:

A state of the art in digital twin for intelligent fault diagnosis

论文期刊:Advanced Engineering Informatics

论文日期:2025年

论文链接:

https://doi.org/10.1016/j.aei.2024.102963

作者:Changhua Hu, Zeming Zhang, Chuanyang Li, Mingzhe Leng, Zhaoqiang Wang, Xinyi Wan, Chen Chen

机构:

Laboratory of Intelligent Control, PLA Rocket Force University of Engineering, Xi’an 710025, China

通讯作者邮箱: 

li_chuanyang@yeah.net


目录


1 摘要

2 引言

      2.1 相关工作回顾

      2.2 本文目的

3 研究方法

3.1 文献综述方法

3.2 文献分类标准

数字孪生的研究进展

4.1 数字孪生的起源与概念

4.2 数字孪生关键技术

5 智能故障诊断研究进展

      5.1 智能故障诊断定义及相关概念

      5.2 智能故障诊断方法

6 数字孪生在智能故障诊断中的应用

      6.1 数字孪生在工业制造领域智能故障诊断中的应用

      6.2 数字孪生在能源领域智能故障诊断中的应用

      6.3 数字孪生在航空航天领域智能故障诊断中的应用

      6.4 数字孪生在其他领域智能故障诊断中的应用

7 建议与未来展望

      7.1 面向数字孪生技术

      7.2 面向智能故障诊断

      7.3 面向数字孪生的智能故障诊断

8 总结

(以上标记章节为本文内容)


1 摘要

随着工业4.0时代的到来,智能制造和数字技术迅速发展,对工业设备的稳定性、可靠性和安全性提出了更高的要求。故障诊断(Fault Diagnosis, FD)是保证设备正常运行的关键步骤,其准确性和效率直接影响设备的稳定运行和经济效益。随着人工智能(Artificial Intelligence, AI)技术的进步,数据驱动的故障诊断方法在智能领域得到了发展,即智能故障诊断(Intelligent Fault Diagnosis, IFD)。最近,为IFD提供了一种新的解决方案。这就是数字孪生(Digital Twin, DT),一种连接物理世界和虚拟世界的桥梁技术。许多研究人员发表了关于使用DT技术进行设备IFD的研究。本文分析了2017年至2024年的260篇文章,系统地讨论了DT、IFD以及DT在IFD中的应用。首先,详细介绍了DT和IFD的概念、关键技术和应用场景;然后,重点介绍了DT技术在IFD领域的应用;最后,本文总结了存在的问题和挑战,提出了解决问题的建议,并对未来的发展进行了展望。这项工作有望为相关领域的研究人员提供有价值的参考和利用,并促进DT技术在IFD领域的进一步发展和应用。

关键词:工业4.0,数字孪生,智能故障诊断,文献综述

6 数字孪生在智能故障诊断中的应用

前面提到的依赖历史数据和预定义故障模式的智能故障诊断方法,在应对未知故障、分析实时数据和适应复杂、动态变化的系统时,面临着重大挑战。这些方法通常难以准确建模设备的实时状态,从而限制了故障诊断的准确性和及时性。此外,它们在适应每台设备及其操作环境的独特特性方面也存在局限,阻碍了个性化和动态故障诊断的实现。相反,基于数字孪生的智能故障诊断有效地克服了这些问题,能够实现更准确、实时和适应性更强的故障诊断[199],[200]。

一般来说,状态监测、故障诊断、健康状况评估、剩余使用寿命预测和维护策略决策是预测与健康管理(Prognostics and Health Management,PHM)或基于状态的监控(Condition-Based Maintenance, CBM)的关键技术。数字孪生技术通过集成实际传感器数据、虚拟原型、数学物理模型和仿真数据,提供了一种可靠的方式,以虚拟和可视化的形式实现可靠的PHM或CBM。

在故障诊断的背景下,数字孪生作为一个综合平台,融合了设备或系统的虚拟和物理表示,旨在提高诊断准确性和预测可靠性。与传统的仅依赖历史数据或孤立模型的故障诊断方法不同,数字孪生通过实时传感器数据、先进的仿真模型和数据分析,建立了与物理资产同步的高保真数字模型,持续反映物理系统的运行状态,提供了一个适应性强、响应灵活的框架来诊断实时发生的故障。

具体而言,数字孪生为智能故障诊断提供了以下关键支持:

1)实时监控和适应性故障诊断:通过利用来自传感器和仿真模型的实时数据,数字孪生为动态监控设备运行状态提供了手段。这使得能够随着故障的发展及时发现异常和故障,从而实现及时诊断并减少级联故障的风险。数字孪生根据运行环境、条件和不同设备的特定需求动态调整其虚拟模型,通过持续的数据更新和反馈,实现高度适应性的故障诊断服务。这意味着该系统能够适应因磨损、环境条件或操作变化导致的机器行为变化,从而保持较高的诊断准确性,并为复杂环境下的设备故障诊断提供强大的数据支持。

2)异构数据源的整合:数字孪生能够整合来自不同类型的数据,包括传感器提供的结构化数据、维护日志中的非结构化数据以及历史性能数据。通过综合数据融合,故障诊断过程得以丰富,提供了设备状态的全面视角,使得智能故障诊断系统能够基于完整的数据集做出更准确的决策。此外,数字孪生还根据设备的运行模式生成孪生数据,特别适用于模拟和分析在实际操作中难以捕捉或复 制的条件,这有助于支持诊断模型的训练和优化。

3)个性化诊断和维护建议:数字孪生能够为特定设备量身定制,提供高度个性化的故障诊断和维护建议。通过考虑设备的具体特性,例如特定的磨损模式和使用历史,数字孪生促进了个性化的故障诊断方法,这对于复杂多样的机械设备至关重要。

4)可视化和决策支持:通过数字孪生的虚拟表示,操作员和维护团队可以清楚地理解设备的健康状态和故障进展。退化趋势和风险评估的可视化支持知情决策,推动了从被动维护到主动维护的转变。这种交互式和可视化的特点提高了复杂数据的可访问性,使团队能够及时发现潜在问题。

5)持续改进和学习:数字孪生利用机器学习和自适应算法,随着数据的积累不断改进诊断和预测能力。这一自适应学习机制使得数字孪生能够应对新出现的故障模式和无法预见的操作条件,这是对不断发展和日益复杂的系统至关重要的能力。

总之,数字孪生技术通过集成实时监控、预测分析和个性化维护洞察,为智能故障诊断提供了一个先进的平台。物理资产与数字孪生之间的协同作用,提供了超越传统方法的诊断精度和适应性,从而为工业环境中的更可靠、高效、响应迅速的故障诊断系统奠定了基础。借助数字孪生,智能故障诊断系统在处理现代机械设备和动态操作环境中的复杂需求时得到了显著提升,最终有助于提高操作韧性并降低维护成本。

近年来,随着数字孪生技术的日益重要,其在智能故障诊断中的应用逐步扩展,吸引了越来越多的研究人员和工程师寻求提升故障诊断的效率和准确性。从图1可以看出,2017到2024年间,相关研究的数量呈逐年增长的趋势。这不仅突出数字孪生技术在现代工业中的关键作用,还展示了其对故障诊断领域的革命性影响。

进一步分析图1中的统计数据可以发现,工业制造、能源和航空航天是数字孪生技术在智能故障诊断中应用最多的三个行业。考虑到这些行业对设备可靠性、安全性和维护效率的高要求,本节将详细探讨数字孪生技术在这三个领域中的故障诊断应用,帮助读者深入理解这一技术的实践意义。

图1 2017年至2024年的相关出版物数量

6.1 数字孪生在智能故障诊断中的应用:工业制造

在工业制造领域,基于数字孪生的智能故障诊断正成为一种革命性技术,允许企业通过与实时数据同步的高保真数字孪生模型,精确地监测和预测生产线设备的状态。这种方法提高了故障诊断的效率和准确性,能够预测潜在问题,减少停机时间,优化维护计划,从而显著提升生产过程的稳定性和经济效率。数字孪生技术的应用标志着工业制造向更智能、更高效的未来迈出了重要的一步。目前,数字孪生技术在工业制造中的应用主要集中在关键部件,如轴承、齿轮箱和电机。本节旨在总结这些应用,并为工业制造业的数字化转型提供参考。

6.1.1 数字孪生在轴承故障诊断中的应用

轴承是工业制造中最常见且至关重要的部件之一,通常需要在高转速、高温和高负荷等严苛条件下运行。其性能直接影响整个机械系统的稳定运行和生产效率。此外,研究表明,轴承故障是设备停机和生产损失的主要原因之一[201]。因此,开发更精确、高效的轴承故障诊断方法至关重要。

为了应对故障数据和计算资源的不足,Xie等人[202]利用SolidWorks和Simulink开发了一个轴承数字孪生模型,结合各种智能算法进行精确的故障诊断和性能退化分析。同时,通过模拟故障数据和应用迁移学习,缓解了故障数据和计算资源有限的问题。Hu等人[203]提出了一种基于数字孪生的1D卷积自编码器,结合遮罩技术,赋能工业物联网,并应用于轴承故障诊断。Wang等人[204]开发了一种基于数字孪生和机器学习分类的在线轴承故障诊断方法。为了解决传统故障诊断方法中对非实时数据、严格安装环境要求和测试数据的需求,数字孪生技术作为解决方案被应用。通过使用成熟的动态模型创建虚拟模型,并通过在线学习确保其可靠性,利用仿真数据进行基于机器学习的故障分类和诊断。此外,该方法还能实时预测故障发生的可能性,并为调整和维护实际轴承的操作参数提供反馈。针对变工况下轴承的故障诊断问题,Ma等人[205]提出了一种基于数字孪生的增强元迁移学习方法,建立了一个基于ADAMS软件的轴承试验台数字孪生模型,并进行了参数识别和模态测试,建模精度达到95.685%。他们将领域适应和注意力机制集成到增强元迁移学习中,通过虚拟数据和实际实验数据的结合,解决了以最少标记数据进行故障诊断的问题,具有重要的理论和实践价值。Li等人[206]提出了一种新的轻量级故障诊断架构,通过构建轴承的数字孪生模型,增强了故障诊断性能,确保了轴承的安全、稳定运行。Shi等人[207]开发了一种将机械模型与实时传感器数据相结合的数字孪生新模型,通过信号逼近方法动态更新模型。该模型已被验证能够准确映射XJTU-SY数据集中的滚动轴承生命周期缺陷大小。Qin等人[208]引入了一种新方法,通过逆物理信息神经网络生成轴承故障数据,以解决样本数据不平衡的问题。Zhang等人[209]开发了一个高保真动态数字孪生轴承模型,用于模拟其运行状态并生成足够的故障数据集。他们进一步开发了基于Transformer的跨域深度神经网络,将诊断知识从仿真数据迁移到实际无标注数据,成功实现了滚动轴承的精准故障诊断。Feng等人[210]创建了一个详细精确的数字孪生轴承模型,能够模拟不同类型、严重程度和运行状态。然后,他们通过新开发的领域对抗图网络实现跨域故障诊断,以解决训练和测试数据分布不一致的问题。结合这些技术,提高了诊断可靠性,克服了传统领域适应方法的局限性,并减少了分析时间和精力。Li等人[211]提出了一种基于数字孪生的双重迁移故障诊断方法,将特征迁移和模型迁移思想结合,通过实际测量数据共同控制数字孪生模型的动态响应,实现场景诊断,克服了传统方法中样本数据匮乏的问题,提高了故障诊断的准确性和可靠性。为了解决传统增量学习方法在学习新类别时容易发生灾难性遗忘的问题,Huang等人[212]提出了一种基于数字双重驱动的多保真信息融合增量学习故障诊断方法,利用高保真图像更新和优化模型,同时使用低保真虚拟知识增强模型在物理空间中的增量健康状态表示。该多保真信息融合增量学习方法在数字孪生驱动的轴承故障诊断中取得了更好的结果。

6.1.2 数字孪生在齿轮箱故障诊断中的应用

齿轮箱是许多工业机器中至关重要的部件,负责传递动力并调整转速。其健康状况直接影响整个机械系统的稳定性和生产效率。然而,在高负荷和复杂环境下运行的齿轮箱容易受到磨损和疲劳的影响,增加故障的可能性。随着工业自动化和智能化的发展,数字孪生技术在齿轮箱故障诊断中的应用逐渐增多。

针对齿轮箱在复杂条件下数据生成质量不均和过度依赖有限类型信息的问题,Yan等人[213]提出了一种创新的基于数字孪生辅助的不平衡故障诊断框架。通过分析齿轮箱的非线性动力学,并利用数字孪生技术创建动态仿真模型来生成高保真的故障仿真数据,这种方法有效解决了获取实际故障数据的挑战。此外,结合子域自适应机制和边缘感知正则化,增强了诊断模型识别特定故障状态的能力,提高了其在不平衡数据下的鲁棒性。Yu等人[214]利用虚拟原型和多体动力学软件基于赫兹理论和扩展有限元方法,开发了齿轮箱的数字物理模型,实现了动态监控和数字仿真,以增强可视化。通过融合实际和仿真信号来增强特征,并通过包络谱分析实现齿轮箱故障诊断。Xia等人[215]提出了一种基于物理-虚拟数据融合的数字孪生驱动方法,应用于汽车齿轮箱故障诊断。首先,他们使用CATIA和ADAMS软件创建了一个高保真的齿轮箱驱动系统数字孪生模型,并通过物理与虚拟数据的互动验证了模型的可靠性。随后,他们采用基于Wasserstein GAN的梯度惩罚物理-虚拟数据融合方法,提高了数字孪生数据的质量。通过对四种不同操作条件下轻型卡车驱动轴的实验验证,证明了该方法的有效性和优越性。

6.1.3 数字孪生在电机故障诊断中的应用

电机是工业制造中至关重要的部件,生产线、机械系统和加工单元大多数依赖其提供动力。因此,电机故障直接影响生产力、产品质量、设备安全性和经济效益。通过数字孪生模型,可以模拟和分析可能的电机故障。结合机器学习算法,可以从历史数据和实时数据中学习,识别故障模式,快速准确地诊断故障类型及其根本原因,缩短修复时间,提高生产效率。

传统的电机健康监测方法依赖于电机电流特性,在强噪声干扰和变化的工作条件下表现不佳。为了解决这一问题,Hu等人[216]提出了一种名为“Ramanujan数字孪生”的新型架构,用于监测和检测感应电机中的周期性故障。通过实验验证了该模型在不同条件和噪声水平下识别常见故障(如断条和定子绕组)时的有效性和鲁棒性。Xia等人[217]使用多物理场仿真软件COMSOL Multiphysics,构建了感应电机的三相数字孪生模型。该模型通过将定子电流转换为新型相对比电流点图,并利用知识迁移和半监督学习方法将定子电流集成到虚拟空间,实现了电机故障诊断。通过将虚拟空间的数据应用到物理空间中的标记稀疏数据,采用监督学习方法来增强电机故障诊断。

永磁同步电机(Permanent Magnet Synchronous Motor, PMSM)因其高效、高功率密度、优良的动态性能和长期稳定性,已成为现代工业制造中不可或缺的动力来源。初期的绕组间短路故障是PMSM中最常见且发展迅速的故障,如果未能及时诊断,可能会造成严重损坏。此外,传统诊断方法在提取故障特征时,受制于电机谐波的影响。为此,Chen等人[218]提出了一种基于数据驱动的数字孪生模型故障诊断方法,用于诊断PMSM中的初期绕组间短路故障。该方法通过分析PMSM中三相电流的残差,采用外部输入的非线性自回归网络,构建了健康状态下电机的数字孪生模型,通过比较实际和预测的三相电流来诊断初期故障。该方法不依赖故障数据,能够在显著谐波和固有不对称的影响下识别细微故障。Huang等人[219]考虑了PMSM的运行力学和物理属性,开发了数字孪生模型,结合3Dmax、Maya、ANSYS和ABAQUS等工具,利用数据交互实现了物理实体和虚拟模型的实时映射。同时,他们使用增强优化算法优化随机森林模型,用于故障诊断,验证了该方法在PMSM故障检测和三维可视化监控中的有效性。Kohtz等人[220]使用基于数字孪生的可靠性设计优化方法,在PMSM状态监测中优化传感器布局问题,为PMSM健康监测提供了一个鲁棒且抗噪声的故障检测解决方案。

6.1.4 数字孪生在其他设备故障诊断中的应用

目前,关于数字孪生技术在其他工业制造设备(或部件)中的故障诊断应用的文献如表2所示(由于原表中内容较多,此处无法充分展示,请转至原文阅读)。

6.2 DT在能源领域的IFD应用

在能源领域,DT技术在多个场景中逐渐被应用于IFD,提升了能源系统的智能化和效率。该技术通过构建能源系统或设备的虚拟副本来模拟和分析实际操作,从而实现对能源设备的实时监控、预测性维护和故障检测,而不干扰实际操作。这使得能源设备能够进行实时监控和故障预测,增强了能源系统的可靠性和安全性。

6.2.1  电池系统

电池系统,尤其是锂离子电池,容易受到过充、过放和热失控等安全隐患的影响,这可能导致电池性能退化、使用寿命缩短,甚至发生安全事故。基于DT的IFD能够实时监控电池的健康状态,预测电池性能退化和潜在故障,并及时发出警报。这对于提高电池系统的安全性和可靠性,以及推动新能源技术的发展至关重要。Yuan等人[235]利用COMSOL Multiphysics和Simulink构建了锂离子电池的热电耦合模型,通过交换温度、电压和电池充电状态数据,形成了一个高度可靠的热电耦合锂电池DT模型,并生成了电池故障数据。利用DT开发故障检测算法的优势,通过分析温度和电压响应来指导IFD算法的开发。Semeraro等人[236]提出了构建可靠、准确且有效的锂离子电池储能系统DT的指导方针,实现了实时监控、故障预测和系统优化。Sun等人[237]研究了质子交换膜燃料电池系统,利用模拟故障注入的高阶模型生成大量故障数据,并结合深度学习算法,成功诊断了九种典型故障,且不需要实际数据标签,在动态负载下取得了令人满意的结果。

6.2.2 光伏系统

光伏阵列是太阳能光伏发电系统的核心组件,其运行效率直接影响整个系统的能量输出。Hong等人[238]首先将DT、卷积混合器和LoRa通知系统相结合,用于光伏故障诊断。随后,他们提出了一种基于DT技术、平移窗口变换器和粒子群优化算法的光伏阵列故障检测、定位和分类的新方法,并通过实验验证了该方法的有效性[239]。Kaitouni等人[240]讨论了摩洛哥本盖里尔市太阳能村中安装的五个建筑附属光伏系统的DT,提出了一种基于DT技术的故障检测和诊断方法,以优化城市分布式光伏系统的运行和维护。该方法结合了三维建模工具和监测系统,取得了可靠的结果。Jain等人[241]设计并实施了一种基于DT的分布式光伏系统故障诊断方法。该DT技术能够实时估计光伏能量转换单元的特征输出,提高故障检测的准确性和效率,并与误差残差向量的生成与评估相结合,使故障检测和识别更加快速敏感。这为光伏系统的可靠性和维护提供了高效可靠的方法。

6.2.3 其他能源领域的场景

在能源领域的其他场景中,Nguyen等人[242]提出了一种直接贝叶斯推理框架,应用于核系统中的DT和故障检测,该方法能够从实时传感器读数直接推断系统故障的概率分布。Ma等人[243]开发了一种结合堆叠稀疏自编码器和迁移学习的DT模型,用于制冷系统的高效故障检测。他们采用DT技术、实时数据和三维动态可视化,并结合堆叠稀疏自编码器和迁移学习,提高了制冷系统的故障检测效率,提出了一种新的方法和技术。Xie等人[244]提出了一种综合性的DT方法,用于提高HVAC系统的故障检测性能。该方法侧重于利用最具信息的数据,支持动态资产管理,并解决了由冗余数据引起的过拟合和计算负担问题。Jing等人[245]结合DT技术和振动信号分析方法,建立了变压器绕组故障检测的新模型。通过独立成分分析和小波包变换提取振动信号的特征向量,利用概率神经网络进行高效、准确的故障检测。DT技术的应用不仅提高了变压器绕组故障检测的准确性,还增强了其实时性和预测能力。Xiong等人[246]开发了基于现场可编程门阵列的DT平台,提出了一种电力电子变压器的实时监控和诊断方法。该方法通过高并行性和低延迟的现场可编程门阵列技术,显著提高了故障检测的及时性和准确性,并显著提升了DT模型的计算效率和性能。

6.3 DT在航空航天领域的IFD应用

在航空航天领域,航空航天系统极为复杂,包含数千个组件和子系统。基于DT的IFD系统能够支持航天器和飞行器设计、制造、运营和维护的整个生命周期,并且在应用背景和价值上具有重要意义。

6.3.1 高超音速飞行器

高超音速飞行器长时间暴露在恶劣的工作环境中,导致性能退化和潜在故障。Dong等人[247]提供了一种高效的高超音速飞行器故障检测方法。通过构建高超音速飞行器的数学仿真,建立DT模型,用于模拟高超音速飞行器的多种故障状态,并生成接近实际系统状态的数据,从而克服在故障检测中获取可靠且足够的数据的挑战。同时,集成多尺度特征提取、利用残差自注意力机制的特征增强模块以及基于门控递归单元的特征融合模块,能够准确识别高超音速飞行器的故障状态。

6.3.2 航空发动机

航空发动机,尤其是在恶劣环境和极端条件下运行的发动机,必然会在服役过程中出现性能退化,从而导致异常、突发故障、性能下降等问题。这对发动机的可靠性和操作安全构成了严重威胁。Huang等人[248]提出了一种新的DT方法,利用深度多模态信息融合。该策略结合了基于物理的模型和数据驱动的模型,为在航空发动机DT框架中集成物理和虚拟仿真数据的挑战提供了解决方案,使得精准的实时监控和故障检测成为可能。Tadepalli等人[249]开发了一种新的DT方法,结合了地理迁移学习支持向量机用于燃气涡轮航空发动机的故障检测。首先,通过3D打印构建燃气涡轮航空发动机模型,随后从内置传感器和DT中收集数据。采用多模态数据分析,利用超切线二次最近邻和二次自适应合成采样技术进行数据预处理和平衡。随后,应用广义二参数Fisher评分进行特征处理。最后,使用所提出的方法进行故障检测,取得了高精度和高效率。

6.4 DT在其他领域的IFD应用

如表3所示,DT技术凭借其独特的优势,已广泛应用于其他领域的故障检测,如船舶海洋、交通运输等。(由于原表中内容较多,此处无法充分展示,请转至原文阅读)

7 建议与未来展望

智能故障诊断是数字孪生技术在服务与维护阶段的重要应用,展示了实时监测、预测及系统问题解决的巨大潜力。在前述章节中,我们总结了关于DT、IFD的研究进展以及DT技术在IFD中应用的三个研究方向。基于此,以下将针对这三个方向所面临的问题和挑战提出一些解决方案和建议,并对未来进行展望,深入探讨如何充分利用DT技术在IFD中的价值。这旨在优化现有流程,推动领域进步,确保DT技术在未来服务与维护中发挥更重要和有效的作用。

7.1 针对数字孪生技术

7.1.1 现存问题与挑战

通过对DT概念、发展历程、关键技术和应用的介绍与总结,可以看出DT已在多个领域得到了广泛应用。尽管其前景广阔,但DT技术在实际应用中仍面临诸多挑战与局限。

1)数据获取与质量问题

DT技术中数据获取与质量问题主要集中在如何确保所收集数据的准确性和可靠性。高质量、可靠的实时数据获取是DT技术应用的基础。然而,在实际操作中,传感器覆盖范围、精度、故障或网络问题以及环境因素可能影响数据采集,导致数据不完整、噪声较多或某种程度上失真。此外,即使数据已被收集,不完善的数据清洗、预处理和验证机制仍可能降低数据质量,对依赖高质量输入以保证模型准确性和可靠性的DT系统构成重大挑战。这些问题影响了DT模型的构建与维护效率,限制了其在IFD及复杂系统决策支持中的潜力。

2)高度复杂系统的集成问题

DT技术在高度复杂系统中的集成问题主要涉及技术兼容性和集成成本。DT需要与现有的信息和物理系统(如PLM、SCADA、传感器、物联网设备、控制系统等)进行整合。这些系统和设备之间存在显著的技术差异,需要高灵活性和兼容性的DT平台实现无缝集成。此外,复杂系统的集成通常需要较高成本,包括硬件与软件投资、定制化及长期维护。这些挑战提高了DT实施的门槛,限制了其在复杂系统中的应用范围与效率。因此,解决集成问题对于DT技术的广泛应用至关重要。

3)模型构建的准确性与实时更新问题

DT技术在模型构建的准确性和实时更新方面面临的挑战主要在于如何确保模型能够准确反映物理实体的实时状态并随其变化动态更新。构建高精度DT模型需要复杂的算法及大量准确的实时数据,而这些在实践中可能难以获得,尤其是针对复杂操作环境或苛刻条件下的物理系统。因此,将数据处理、挖掘技术与数理物理模型相结合,以反映系统实时状态,尤其是在涉及油液、气体的复杂机电系统中,具有特别的挑战性。在小规模产品部件(如轴承、齿轮)中实现DT相对简单,而在大规模系统中应用时,复杂性显著增加。这些复杂系统是大多数工业产品与设备的典型特征。系统的高度复杂性使DT模型的构建与实时更新变得更为困难,从而增加了技术挑战和资源需求。此外,这还需要相关人员具备大量专业知识。

即便初始模型准确,由于环境变化和系统磨损,模型可能会随着时间偏离实际状态,需持续进行实时更新以保持同步。然而,实时更新要求快速处理与分析大量数据,灵活适应新输入,并需要大量计算资源,这对大型系统而言尤为具有技术挑战性。这些问题与挑战需要通过技术创新与方法优化逐步解决。

4)安全与隐私保护问题

DT技术在安全与隐私保护方面的问题与挑战主要来自其对大量敏感数据的高度依赖。这些数据通常包括个人信息、商业机密和关键基础设施的运行数据,任何泄露或未经授权的访问都会带来严重后果。因此,随着数据量的增长,保护这些大数据集免受恶意攻击的难度不断增加。此外,DT系统的开放性和互联性虽然便于信息共享与集成,但也增加了攻击者入侵的风险。此外,隐私保护也是一大挑战,因为DT系统在处理和分析个人数据时需确保不侵犯隐私,这些问题在医疗等高度敏感领域尤为限制其应用。

7.1.2 建议的解决方案

1)针对数据获取与质量问题

投资高质量传感器和先进的数据采集技术以提高数据的准确性与完整性。开发容错机制以应对潜在的采集问题。建立健全的数据管理框架,包括清洗、验证及融合策略以确保数据质量,并探索更准确的机器学习算法以识别和纠正异常值。

2)针对系统集成的复杂性问题

推进行业标准化,建立统一的接口与数据交换格式,以简化系统集成。采用中间件技术解决系统之间的兼容性问题,降低技术难度与成本。

3)针对准确模型构建与实时更新的挑战

特别是在复杂系统(如涉及油液和气体的机电系统)中应用DT时,需要开发更先进的动态更新机制,使DT模型能够实时准确反映物理实体的当前状态。在此类复杂系统中,实时模型更新对技术要求更高。因此,使用机器学习与人工智能技术自动化模型构建与更新流程,可以处理复杂的实时数据流并动态调整模型以适应物理实体的变化。尤其在大型系统中,计算资源的高效分配至关重要,通过整合云计算与边缘计算技术,可支持实时更新并确保模型性能的高效性。

4)针对安全与隐私问题

实施严格的数据安全措施,包括加密、访问控制与监控机制。同时,采用多层次安全策略,覆盖物理、网络与应用层安全,构建全面的防御体系。

7.1.3 未来展望

1)数据采集与质量保证

随着物联网的快速发展及传感器技术的进步,未来将涌现更多高质量、低成本的传感器,显著提升数据采集的质量与效率。同时,人工智能和机器学习算法将使数据处理与质量保证方法更加智能化,能够自动识别与纠正数据质量问题,从而提高数据的准确性与可用性。

2)系统集成与标准化

随着标准化的广泛采用,模块化设计理念、开放接口及微服务架构将使系统集成更加灵活与简便。DT技术将与各种现有系统及新兴技术无缝集成,为用户提供更全面的洞察并促进高效协作。

3)高保真模型与实时更新

随着计算能力的提升与算法优化,未来DT模型将实现更高的保真度与更快的更新速度。通过采用先进建模技术与自适应学习算法,DT模型能够在复杂多变的环境中准确反映物理实体的状态,保持高度同步性与响应性。这将使DT模型广泛应用于更复杂的系统与行业中,为设计、运行与维护提供革命性解决方案。

4)安全技术与隐私保护

安全技术的进步和隐私保护意识的增强将促使未来DT系统中采用更先进与全面的安全措施。这包括使用加密技术、细粒度访问控制及遵守国际公认的数据保护标准。

7.2 面向智能故障诊断

7.2.1 存在的问题与挑战

1)数据的可用性、完整性和质量问题

完整、可用、高质量的数据是智能故障诊断的基础。然而,在一些环境或应用场景中(特别是在极端或复杂的运行条件下),往往难以获取足够数量和高质量的数据。这可能由于监测设备昂贵、技术限制或数据采集过程中存在物理障碍等因素导致。而数据的缺乏可能会导致模型训练不足,从而影响故障诊断系统的准确性和可靠性。

数据在采集、传输或存储过程中可能会丢失或损坏,导致数据不足或不平衡(正常状态数据远多于故障状态数据),这为故障特征提取带来挑战,并可能导致无法提取关键特征或生成错误的诊断结果。

此外,数据质量还受到传感器精度、环境干扰和不当数据处理等多种因素的影响。低质量数据可能包含噪声和偏差,直接影响故障诊断的准确性。

2)模型的准确性和实时性问题

模型的准确性受数据的质量和数量,以及模型设计和训练过程的限制,而实时性问题则来自对高速度数据处理和分析方法的需求,特别是在资源有限的环境中。与此同时,在变化的运行条件下保持模型的准确性,以及处理大量数据以提供实时反馈,需要高度优化的算法和充足的计算资源。这些问题需要在模型设计、数据处理和系统架构方面的创新,以确保智能故障诊断系统的准确性和响应性。此外,尽管已经开发出许多基于人工智能的方法用于智能故障诊断,但选择不同机器学习(ML)或深度学习(DL)方法的标准化过程仍是一大挑战。特别是对于基于深度学习的方法,超参数设置的标准化过程也是确保其实用性和可操作性的关键挑战。

3)可持续诊断与泛化性问题

现有的智能故障诊断模型在特定系统和条件下表现良好。然而,随着设备自身的老化、维护活动以及运行条件的变化,原有诊断模型可能失效,从而影响诊断的准确性和可靠性。此外,由于实际应用中可能出现的新故障模式或未遇到的故障情况,原有模型可能难以准确识别或发生灾难性遗忘问题,这对模型的泛化能力提出了挑战。因此,开发能够自我更新、适应新故障模式,同时在设备状态和运行条件变化下保持良好泛化性能的智能故障诊断方法,是当前的关键问题与挑战。

7.2.2 建议的解决方案

1)数据质量提升与多模态数据结合

通过减少数据采集过程中外部干扰以提高数据可用性;通过清洗、插值、去噪等预处理方法提升数据完整性和质量。在数据有限的情况下,可采用数字孪生技术、数据增强等方法生成额外的训练样本。同时,结合多模态数据有助于增强故障特征的表征能力,提高模型的泛化能力和准确性。

2)智能模型的优化与自动化

选择或开发具备高准确性和快速响应能力的智能模型;采用在线学习方法,及时更新模型以适应新的数据分布;压缩和简化复杂模型,以减少计算量并提升速度,同时在资源受限环境中保持足够的准确性。此外,为应对模型选择和超参数调整的挑战,可探索开发标准化的工具和流程,用于自动选择最合适的机器学习或深度学习模型,并优化超参数。这将简化智能故障诊断的实施并提升模型的实用性与效率。

3)增量学习与迁移学习

集成增量学习机制,使模型能够连续学习并适应新数据,从而识别新出现的故障模式而不会遗忘旧知识;探索多任务学习与迁移学习策略,通过知识共享提升模型的泛化能力,使其能够处理不同类型的故障和变化的运行条件。

7.2.3 未来展望

1)丰富的数据来源与实时处理

随着物联网技术的发展和智能传感器的普及,未来智能故障诊断系统将获得更丰富、更高质量的数据。边缘计算将进一步增强数据处理的实时性和准确性,即使在极端或复杂环境中也能确保数据完整性和质量。此外,预计未来会整合更多种类和来源的数据,为故障诊断提供更全面的视角。

2)增量学习和图卷积网络的潜力

在需要连续学习和适应新数据或环境变化的场景中,增量学习是一种非常有前景的学习策略。随着深度学习、迁移学习等技术的进步,模型将能够更好地从新数据中持续学习和适应,从而实现更高的诊断准确性和性能。此外,图卷积网络(GCN)在处理复杂网络和时空数据方面具有显著优势,特别适用于复杂拓扑结构的工业设备和系统的故障诊断。随着GCN理论与技术的进一步发展,其在智能故障诊断领域的应用将更加广泛和深入。

3)通用化与跨领域融合

未来的智能故障诊断系统将更加注重可持续性和泛化能力。开发更通用的故障诊断框架与标准,促进行业与领域之间的知识共享与技术转移,是重要方向。此外,跨学科融合(如心理学、人类行为学和语义信息等非传统领域的知识应用)可能为智能故障诊断带来新的方法与创新。

7.3 面向数字孪生的智能故障诊断

7.3.1 存在的问题与挑战

首先,数据的复杂性和多样性对数据处理能力提出了很高的要求,包括高效处理和集成来自不同来源和格式的大规模数据集,以及确保数据质量和一致性。此外,高维和时空数据的处理也需要复杂的分析工具和算法;许多故障诊断系统需要处理具有明确时间和空间属性的数据,挑战在于模型中准确反映时间序列依赖性和空间关系。

其次,建模非线性和动态系统行为,尤其是针对复杂机电设备及其众多组件和子系统的建模,构建精准可靠的数字孪生模型是一大难题。此外,确保数字孪生模型与物理系统之间的实时同步性对精度和计算效率提出了更高的要求。这些技术挑战不仅需要强大的计算资源,还需要通过先进算法进行跨学科技术创新。

同时,数据安全与隐私保护、缺乏通用标准以及高部署成本也是基于数字孪生技术的智能故障诊断推广过程中需要克服的关键障碍。这些问题使得数字孪生技术的广泛应用和潜力最大化成为一项复杂的任务。

7.3.2 建议的解决方案

1)模块化建模

通过模块化建模方法,将复杂机电设备分解为多个模块或子系统进行建模,以提高数字孪生模型的模块化程度和灵活性。模块化设计通过让每个模块专注于特定功能或组件,并通过接口与其他模块交互,简化了复杂系统的建模。这种灵活的架构能够更轻松地适应技术迭代和系统扩展。

2)混合建模方法

结合基于物理的建模和数据驱动建模的优势。物理模型可以捕获设备的基本工作原理,而数据驱动模型通过学习实际运行数据来提高模型的精确性和适应性。这两种方法的结合显著提高了模型的准确性。

3)多模态学习

采用多模态学习方法,通过整合来自不同来源的数据和知识,有效提升模型性能和泛化能力。

7.3.3 未来展望

数字孪生技术正处于快速发展阶段,在智能故障诊断、系统优化等领域有着广阔的应用前景。通过克服现存挑战并持续创新改进,数字孪生技术将成为推动工业4.0和智能制造发展的关键技术之一。未来的研究应集中在增强数字孪生技术的智能性、实时性能和应用广度,同时确保安全和隐私保护,以促进其在各领域的发展。

1)技术集成与创新

数字孪生应与人工智能、大数据、物联网等技术进行更深层次的融合,探索透明且可解释的智能故障诊断算法,显著提升诊断的准确性和可信度。

2)跨学科研究与合作

数字孪生技术的发展需要多学科的专业知识。未来应推动机械、计算机、数据分析等领域之间的合作,以促进数字孪生技术在智能故障诊断中的应用和发展。

3)个性化与通用化应用

随着数字孪生技术的成熟,可以为特定行业或企业定制个性化解决方案。同时,还可以开发通用化的建模解决方案,以降低复杂系统智能故障诊断的应用门槛。

8 总结

本文总结了260篇文献,对过去七年数字孪生(DT)、智能故障诊断(IFD),特别是DT在IFD中的应用进行了全面回顾,旨在揭示最新研究进展、关键技术、应用领域、挑战及未来发展方向。通过对DT技术与IFD方法的系统分析,深入理解了这两个领域如何相互促进,共同在工业制造、能源和航空航天等关键领域取得进展。主要研究发现总结如下:

1)DT技术依赖于高效的数据采集与处理、精确的数值建模、深入的数据分析与挖掘、直观的可视化,以及灵活的持续模型迭代与更新。同时,这些技术为IFD中的DT应用提供了有力支持,实现了精确的故障预测与健康状态评估。

2)IFD技术的发展集中在利用机器学习(ML)、深度学习(DL)和迁移学习(TL)方法提高诊断的准确性与效率。这些技术能够从大量复杂数据中学习故障模式,从而提升故障检测的准确性和可靠性。此外,研究表明,增量学习策略结合其他先进智能算法,为实现更智能、自适应和持续优化的故障诊断系统提供了关键支持,成为IFD研究的重要分支。

3)DT技术在工业制造、能源、航空航天及海洋船舶领域的IFD应用中表现出显著优势。其在提升设备运行可靠性、降低维护成本、优化维护决策等方面的效果得到了验证。

4)尽管DT和IFD技术取得了显著进展,但在数据采集与处理、模型构建、系统集成以及安全与隐私保护方面仍存在挑战。在未来研究中,应重点关注提高数据质量、提升模型实时性与准确性、加强系统集成性以及改进数据安全与隐私保护方面的问题。

5)未来的研究需要集中解决现有技术和方法中的难点,探索新的数据处理技术,构建基于DT的模型和学习算法,以增强DT技术在IFD中的有效性。此外,跨学科合作在推动该领域发展中至关重要,尤其是在数据科学、机械工程和计算机科学之间的协作。

综上所述,DT技术在IFD领域展现了显著的潜力和价值。通过对现有文献的系统回顾,本文揭示了研究进展、主要问题与挑战,以及未来展望和建议,为研究人员和工业实践者提供了宝贵的参考和指导。随着技术进步和跨学科合作的深化,DT与IFD技术的结合将在提高设备可靠性、优化维护策略、推动工业自动化方面发挥越来越重要的作用。未来,DT与IFD的结合有望在多个行业中得到广泛应用,开启智能制造与自动化维护的新篇章。

编辑:任超
校核:李正平、陈凯歌、赵栓栓、曹希铭、赵学功、白亮、海洋、Tina、陈宇航、陈莹洁,王金
该文资料搜集自网络,仅用作学术分享,不做商业用途,若侵权,后台联系小编进行删除
点击左下角阅读原文,即可在线阅读论文。


来源:故障诊断与python学习
AdamsAbaqusMAGNETComsol振动疲劳非线性燃料电池旋转机械通用航空航天船舶汽车CATIA云计算声学理论电机PLM
著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2025-01-11
最近编辑:3小时前
故障诊断与python学习
硕士 签名征集中
获赞 77粉丝 78文章 162课程 0
点赞
收藏
作者推荐

SCI论文学习 | 一种基于联邦学习的边云协同机器剩余使用寿命预测的方法

本期给大家推荐郭亮教授的一种基于联邦学习的边云协同机器剩余使用寿命预测的方法。针对实际工业应用中智能方法预测剩余使用寿命(Remaining Useful Life)时出现的边缘客户端计算能力较弱、数据量有限以及所有边缘客户端数据不共享的问题,提出了一种基于联邦学习的RUL预测方法——FedRUL。该方法利用多个边缘客户端和一个云服务器在不共享数据的情况下训练全局编码器和剩余寿命预测器。首先,将所有的局部训练数据集馈送到相应的客户端,用于训练自己的卷积自编码器(Convolutional Autoen-coder)。然后,将所有客户端的编码器上传到服务器对编码器进行聚合。最后,服务器将全局编码器和RUL预测器分发给所有客户端,以实现相应的剩余寿命预测任务。通过铣刀数据集和轴承数据集验证了该方法的有效性。论文基本信息论文题目:FedRUL: A New Federated Learning Method for Edge-Cloud Collaboration Based Remaining Useful Life Prediction of Machines 论文期刊:IEEE/ASME TRANSACTIONS ON MECHA TRONICS论文日期:2022年论文链接:https://doi.org/10.1109/TMECH.2022.3195524作者:Liang Guo (a),(b), Yaoxiang Yu (a), Mengui Qian (a), Ruiqi Zhang (a), Hongli Gao (a), and Zhe Cheng (a).机构:a: Engineering Research Center of Advanced Driving Energy-Saving Technology, Southwest Jiaotong University, Chengdu 610031, China;b: Laboratory of Science and Technology on Integrated Logistics Support, National University of Defense Technology, Changsha 410003, China.作者邮箱:guoliang@swjtu.edu.cn作者简介:郭亮,西南交通大学副教授,四川省省级人才计划入选者、西南交通大学雏鹰学者。2022年和2023年连续两年,入选斯坦福大学“全球前2%顶尖科学家终生科学影响力榜单”和“全球前2%顶尖科学家年度科学影响力榜单”。长期从事轨道交通车辆状态监测、诊断与维护的研究工作,先后主持国家自然科学基金、国家重点研发计划子任务、四川省杰出青年科学基金等项目15项。以第一或通讯作者在MSSP、IEEE TIE等领域权威/知名期刊发表SCI论文37篇,其中“ESI国际学术研究前沿”论文2篇,“ESI热点”论文2篇,“ESI高被引”论文6篇。发表论文谷歌学术引用5700余次,一作单篇引用最高1000余次。发表论文先后荣获《IEEE Transactions on Industrial Electronics》2020年度杰出论文奖、PHM2017国际学术会议最佳论文奖、领跑者5000(F5000)——中国精品科技期刊顶尖学术论文、EITRT2023国际学术会议最佳论文奖等奖励。研究成果支撑先后获得了2022年四川省科学技术进步奖一等奖(排名第2)、2021年陕西省自然科学奖一等奖(排名第5)等奖励。目录1 摘要2 引言3 联邦学习的工业应用4 提出的方法4.1 网络构建与训练4.2 FedRUL框架5 案例研究一 5.1 实验介绍 5.2 样本构建 5.3 模型建立 5.4 实验结果6 案例研究二 6.1 数据建立 6.2 实验结果 7 结论 1 摘要在实际工业应用中,出现了许多智能方法来预测剩余使用寿命(RUL)。然而,它们的发展受到两个阻碍。首先,普通边缘客户端计算能力较弱,数据量有限,难以实现RUL预测。其次,对于所有边缘客户端来说,由于潜在的利益冲突,相互共享数据是不现实的。为此,提出了一种基于联邦学习的RUL预测方法——FedRUL来解决这些问题。该方法利用多个边缘客户端和一个云服务器在不共享数据的情况下训练全局编码器和剩余寿命预测器。每个客户端包括由编码器和解码器组成的卷积自编码器(CAE),而服务器包括了相同的编码器以及RUL预测器。在每个历元期间,CAEs首先通过其相应的本地训练数据集在所有客户端进行训练。然后,将所有本地编码器上传到服务器,并根据客户端在服务器验证数据集上的性能为所有客户端分配权重,从而聚合为全局编码器。最后,将该全局编码器发送回所有客户端,从客户端数据集中提取特征,并将这些特征上传到每个客户端,逐个训练RUL预测器。两个实验表明,FedRUL为RUL预测提供了一个有前途的机密分散学习解决方案。关键词:卷积自编码器,分布式数据,联邦学习,剩余使用寿命预测2 引言机器的剩余使用寿命(RUL)能够直接反映机器的健康状态。随着工业大数据时代的到来,数据驱动的RUL预测方法 正在兴起并显示出潜在的效果。在这些方法中,第一步是从原始数据中提取特征。传统的特征提取方法一般是通过统计知识[1],[2],[3]手动提取特征,耗费大量时间,严重依赖专家知识。相反,最近流行的基于深度学习的智能特征提取方法能够自动提取特征,并已应用于各种研究[4],[5],[6]。尽管有前景的智能剩余寿命预测方法 正在稳步发展,但限制其广泛应用的两个挑战是:1)基于神经网络的RUL预测模型需要训练大量的参数,对于计算能力较弱的边缘设备来说,这非常耗时。2)对于基于深度学习的方法,需要大量的数据。然而,收集大量数据对于边缘客户端来说是非常昂贵和不现实的。针对第一个问题,通常实现边缘云协作[7],其中云服务器负责通过接收来自一个或多个边缘客户端的数据来训练神经网络。Zhao等[8]构建了一种边缘云协同的织物缺陷检测体系结构,包括边缘层、平台层和应用层。实验表明,提出的边缘云协同织物缺陷检测方法具有较好的动态适应性。Verma等人提出了一种基于机器振动监测的物联网边缘云性能评估,以促进考虑环境的部署。另一方面,数据不足也阻碍了基于深度学习的RUL预测方法的发展。Yu等人[10]提出了一种深度学习模型,根据所有样本的类别赋予不同的权重,以解决少数类别样本不足带来的问题。利用轴承数据集和铣刀数据集验证了该方法的性能。Mao等人[11]将原始信号的频谱输入到生成对抗网络中生成少数派样本,在轴承数据集上获得了出色的诊断结果。Guo等人[10]介绍了机器间迁移故障诊断方面的工作,提出了一种基于最大平均差异(MMD)和领域对抗训练的机器故障诊断迁移学习网络。该方法能够将从一个数据集学习到的知识应用到另一个数据集上,而不需要任何标签。然而,在数据不足的情况下生成新数据或改进新算法需要专家投入大量时间和知识。除了这些方法之外,一个常见的想法是集成从不同边缘客户机[13]中不同但相似的机器获取的所有数据。然而,由于潜在的利益冲突,几乎所有的边缘客户端都不愿意分享自己的数据。为了应对这些挑战,最近出现了联邦学习(FL)方法[15],并将其应用于数据孤岛问题。在这些方法中,多个边缘客户端上传提取的特征或模型参数,而不是直接将自己的数据发送到云服务器上构建强全局模型,从而保护了用户的隐私。随着人们对隐私保护的日益重视,近年来提出了许多隐私保护方法。McMahan等人提出了一种联邦平均(FedAvg)方法,该方法将所有边缘客户端的模型参数或梯度平均并集成到云服务器上。在工业应用中,FL也普遍存在。Zhang等人提出了一种基于传统FedAvg方法的动态验证策略。这种改进通过忽略验证数据集中一些性能较差的模型,减少了分布式低质量数据的负面影响。以三种场景下的两个轴承数据集为例,验证了该方法的优越性。为了进一步将FL与迁移学习相结合,Zhang等人[18]提出了一种用于故障诊断的联邦迁移学习方法,该方法通过将从多个边缘客户端提取的特征发送到服务器来实现。这种开创性的传输策略在机器故障诊断方面取得了巨大的成功。利用列车转向架数据集验证了该方法的有效性。虽然FL方法在机器故障诊断中得到了广泛的应用,但在RUL预测中的应用研究却很少。因此,本文提出了一种新的用于RUL预测的联邦学习方法——FedRUL。在该方法中,在每个边缘客户端中包含包含编码器和解码器的卷积自编码器(CAE),而云服务器由RUL预测器和编码器组成,其结构与客户端中的编码器相同。所有客户端都拥有自己的本地训练数据集,没有任何数据共享。在服务器端,数据集分为验证数据集和测试数据集。首先,将所有的局部训练数据集馈送到相应的客户端,用于训练自己的CAE。然后,将所有客户端的编码器上传到服务器,在服务器上,根据这些编码器在验证数据集上的性能确定的相应权重对这些编码器进行聚合。最后,服务器将其全局编码器和RUL预测器分发给所有客户端,以实现相应的RUL预测任务。为了验证该方法的有效性,应用了铣刀数据集和轴承数据集。本文的主要贡献总结如下。1)为了充分利用云服务器的计算能力,降低通信成本,只将所有编码器的底层特征和参数上传到服务器,而不是将整个模型上传到服务器。此外,主要的训练过程在服务器端完成,这可以大大减少所有边缘客户端的计算负担。2)为了避免低质量数据的边缘客户端带来的负面影响,所有客户端的编码器根据其在验证数据集上的表现被分配不同的权重。基于这一理论,低质量数据的客户的贡献被抑制。3)不像以往的研究那样将FL应用于故障诊断,而是首先通过FL框架实现机器的RUL预测。4)在RUL预测器中,由于不同种类的信号所反映的退化信息是异步的,因此采用了多尺度学习策略来提取不同尺度水平上的特征。此外,RUL预测器还采用了自注意机制来强调有用的特征,抑制多余的特征。本文的其余部分组织如下。第二节介绍了联邦学习的工业概念。第三节详细介绍了所提出的方法。在第四节和第五节中,使用铣刀数据集和轴承数据集验证了所提出方法的有效性和优越性。最后,在第六节给出结论。3 联邦学习的工业应用为了清晰地描述FL及其在本文中的应用,首先介绍了相关的概念和符号。在工业应用中,边缘客户端训练具有大量参数的深度学习模型既耗时又昂贵。一般来说,他们将自己的数据上传到云服务器。然而,仅基于一个边缘客户端的数据构建一个强大的模型是不够的,不同的边缘客户端由于潜在的利益冲突而不愿意共享他们的数据。在FL中,client表示边缘客户端,server表示云服务器。在没有任何数据共享的情况下,客户机只将其本地模型上传到服务器,而不是将自己的数据上传到服务器,而服务器负责将所有客户机发送的信息集成到全局模型中。在第 个客户端中,它自己的本地训练数据集表示为 ,其中 为第 个样本, 表示第 个样本数据, 表示其对应的标签, 表示客户端数量, 表示第 个客户端的样本数量。FL的过程如图1所示。首先,所有客户端的局部模型由各自的局部训练数据集进行训练。然后,将所有本地模型上传到服务器进行聚合。最后,将聚合的全局模型下载到所有客户机,用于它们自己的任务。图1 联邦学习方案的说明最近,FL方法在以下场景下进行应用,并取得了出色的性能。1)数据量不足以为每个客户端训练一个强模型。2)服务器凭借其强大的计算能力参与模型训练过程。3)来自不同客户端的模型可以共享,但它们的本地数据集无法通信。上述所有场景都符合FL的工业应用。因此,在本文中,通过基于FL的方法实现机器的RUL预测。4 提出的方法在本节中,将详细解释FedRUL,如图2所示。总共有上传-下载两个主要的过程。在第一个过程中,所有客户端拥有的CAEs首先由其对应的局部训练数据集进行训练。训练完成后,将所有编码器上传到服务器,并通过加权平均方法进行汇总。然后,将聚合的全局编码器下载到所有客户机。在第二个下载过程中,全局编码器从每个客户端的本地训练数据集中提取低级特征,并将这些特征逐一上传到服务器,用于在服务器中训练RUL预测器。最后,服务器将全局编码器发送到所有客户端。至此,一个训练历元已完成,上述过程不断重复,直到包含全局编码器和RUL预测器的RUL预测模型训练好。图2 提出的联邦学习框架4.1 网络构建与训练在每个客户端中,构建一个CAE,包括一个编码器和一个解码器来重建输入信号。如果重构损失能够在一定程度上减少并达到收敛,则认为编码器具有从原始数据中提取底层特征的能力。然后,将这些特征输入到服务器中的RUL预测器中进行RUL预测。相关网络架构如图3所示。图3 网络结构 1)客户端CAE:对于所有客户端的CAE,其结构是统一的,由一个编码器和一个解码器组成。当输入样本数据时,使用包含两个卷积(Conv)层的编码器提取特征。具体来说,第 个Conv层的第 个输出特征向量可以由式(1)得到, 其中 为卷积计算算子, 为前一层的第 个特征向量, 为卷积核, 为第 卷积层的偏置向量。然后,将这些提取的特征输入到与编码器结构对称的解码器中。应用两个反卷积(Deconv)层负责重构样本数据。为了确保原始和重构样本数据的一致性,用于编码输入和解码潜在表示的参数集 通常被约束为 的形式。Deconv层的详细操作可以定义如下: 其中 表示在两个维度上翻转操作的参数, 是偏置向量。为了保证提取特征的有效性,构造一个损失函数,使原始样本数据与其重构样本数据 之间的距离最小。具体来说,选择它们之间的均方误差(MSE)作为优化目标,并在训练过程中减小MSE。在数学上,第 个客户端的损失函数可以测量为: 在第一项中,考虑重构损失。 为第 个样本数据 在第 个客户端的重构, 为该客户端的样本数。在第二项中, 表示第 层的参数, 表示层数。正则化项是一个用于平衡重构和参数损失的重要性的超参数。通过在一定范围内限制参数,可以约束这些CAEs的复杂性,从而避免过拟合。在训练过程中,采用随机梯度下降法对给定的参数进行更新: 其中 为第 个客户端的CAE参数, 为学习率。2)服务器RUL预测器:更新所有客户端的CAEs参数后,将所有编码器发送到服务器进行聚合。然后,将聚合的全局编码器下载到所有客户端,从他们自己的本地训练数据集中提取低级特征。为了在服务器中训练RUL预测器,将这些提取的低级特征及其相应的标签上传到服务器以更新RUL预测器。对于RUL预测器,主要的算子也是卷积运算。与CAEs不同的是,该算法采用多尺度学习策略,在不同尺度上提取更多有用的退化信息。其中,在多个Conv层中应用不同大小的核,其操作与式(1)相同。卷积后,通过激活函数实现如下的非线性变换: 式中 为第个输出特征向量 的激活特征, 为激活函数,本文中使用的为ReLU函数。然后,在每个Conv层之后使用池化(pool)层来降低特征映射的维数和模型的复杂性。池化层中的操作定义为: 其中 为池化规则,即本文中的最大池化操作。具体来说, 的元素是特征映射 中一个区域的最大值,该区域由池化内核大小决定。除了多尺度学习策略外,自注意机制也被用于强调信息特征映射,并从大量特征中抑制不重要信息。具体来说,平均池化和最大池化操作同时应用于压缩空间维度的特征映射。经验证实,利用这两种池化操作大大提高了网络的表示能力,而不是单独使用每个池化操作。首先,分别使用全局平均池化(GAP)和全局最大池化(GMP)操作来聚合输入特征映射。然后,将每个聚合映射输入到两个全连接(FC)层。最后,将两组输出相加,生成频道注意映射 。在这两个FC层中,前者负责将特征映射降维到 ,其中 为降维比。为了保证输入和输出之间形状的一致性,使用另一个FC层将形状还原回 。通过GAP和GMP的两组输出使用元素求和合并。简而言之,信道注意力计算为: 其中 表示sigmoid函数, , 分别表示FC第一层和第二层的参数, , 分别表示GAP和GMP压缩后的特征映射。在得到每个通道的权重后,重新缩放操作执行如下: 其中 和 分别表示输入和加权输出。 表示channel-wise乘法,其中通道注意力值沿空间维度广播。4.2 FedRUL框架随着人们对隐私保护的日益重视,FL已经成为一种很有前途的去中心化模型训练技术。通过FL,在不同的客户端和服务器之间只传输特征、梯度或模型参数,而不是直接发送原始数据。在没有任何数据共享的情况下,FL可以通过汇总所有数据的知识来训练一个强大的模型。虽然FL能够解决数据孤岛的问题,但是所有客户端巨大的计算成本和客户端与服务器之间沉重的通信负担制约了FL方法的发展。此外,在以往的研究中,几乎所有的FL框架都是针对故障诊断问题构建的。然而,RUL预测也很重要,需要隐私保护。因此,本文提出了一种新的基于联邦学习的预测方法——FedRUL。FedRUL的详细过程如图4所示。图4 FedRUL在机器RUL预测场景中的流程图首先,所有客户端的CAEs都通过自己的本地训练数据集进行训练。然后,将它们的编码器上传到服务器,并使用相应的权重进行聚合。这些权重是根据服务器中验证数据集上的MSE测量的。具体来说,这些权重通过下式计算: 其中 表示验证数据集上的重构损失, 表示第 个客户端的权重。在编码器聚合后,将聚合的全局编码器下载到所有客户端以提取低级特征。这些特征及其相应的标签被上传到服务器,用于高级特征提取和RUL预测。之后,训练过程结束。在测试过程中,首先使用全局编码器提取底层特征。然后,使用RUL预测器提取高级特征,实现RUL预测。基于FedRUL,只需将本地编码器和底层特性多次上传到服务器,而不是将整个模型上传到服务器,大大减轻了通信负担。此外,训练过程在服务器端实现,而在所有客户端只完成浅层CAEs的简单训练,充分利用了服务器强大的计算能力。虽然可以使用不同客户机的底层功能,但仍然可以确保数据隐私[20],[21]。使用特定类型的神经网络,输入数据通常不能使用输出特征复 制,从而有助于保护数据隐私。5 案例研究一在本节中,通过与其他最新方法的比较,在铣刀数据集上验证了所提出方法的优越性。在模拟应用场景时,将不同条件下采集的样本视为存在于不同客户端的本地数据集,不能相互共享。5.1 实验介绍如图5所示,本次铣刀实验是在计算机数控机床DAHENG CMC850上进行的。在实验过程中,使用4种传感器采集8种信号。详细的参数设置如表1所示。当刀具后刀面磨损宽度大于0.3 mm时,停止寿命试验,按GBT16460-1996中铣刀寿命标准认为该刀具已达到磨损极限。实现了两种不同的工况,每种工况包括6把铣刀,详细信息见表2。图5 数控铣床和传感器布置 表1 铣刀实验参数设置表2 铣刀的切削条件5.2 样本构建 实验过程中,采集了不同寿命周期铣刀的X、Y、Z轴振动信号、X、Y、Z轴切削力信号、电流信号、声音信号等8种信号。以寿命最长的刀具为例,其部分信号如图6所示。在切削过程中,信号的幅值随操作时间的增加呈增加趋势。图6 整个使用寿命期间监测信号。(a) X轴振动信号 (b) X轴切削力信号 (c)电流信号 (d)声音信号在实验过程中,每次切削进行20秒。由于不稳定,前5秒和后5秒被忽略,而在中间10秒收集信号。在构建样本时,仅使用前1 s数据来预测RUL。因此,每个样本拥有10000个时间点,其形状为10000 × 1 × 8,其中8表示信号类型的数量。为了更清楚地说明,样本生成过程如图7所示。图7 数据样本生成5.3 模型建立 所提出方法中使用的模型包括所有客户端的CAEs和服务器端的RUL预测器,其网络结构如表3所示,其中F表示过滤器的数量,K表示内核大小,P表示每层的参数。为方便起见,使用Conv、GAP和GMP分别表示卷积层、全局平均池化和全局最大池化。FC1和FC2表示自注意模块中的两个FC层。FO是最后的预测层。训练时,batch size设置为8,使用的优化器为Adam,学习率为0.005。CAE和RUL预测器的损失随时间变化图如图8所示。本文采用一台搭载NVIDIA GeForce RTX 2060 GPU的服务器来实现云计算,客户端为NVIDIA公司的Jetson TX1[22]。在实验中设置了两个客户端,对应两种不同的操作条件。表3 联邦框架的结构图8 FedRUL框架随时间的损失曲线5.4 实验 结果 (1)方法比较:本文对不同的规则规则预测方法进行了实现,以证明本文方法的优越性。具体来说,这些方法如下。1)OneByOne:第一个对照组命名为OneByOne,通过在每个客户端中逐个独立输入本地训练数据集来训练RUL预测模型。具体来说,在一个训练时期,服务器中的模型被下载到每个客户端,并首先由一个本地训练数据集进行训练,以更新其参数。然后,将该模型发送回服务器。之后,将模型下载到下一个客户端并重复相同的训练过程,直到所有客户端都通过。实际上,这种方法可以看作是一种间接的样本展开。然而,对于非独立且分布相同的数据,数据混合可能会产生负面影响。2)BaseLine:在第二种方法中,所有客户端都拥有一个由其相应的局部训练数据集训练的RUL预测模型。当所有模型都训练得很好后,它们的预测结果被平均作为最终结果。在实验中,由于每个客户端样本量有限,该方法的性能往往不理想。3)UpperLimit:直接对所有的局部训练数据集进行聚合,按照正常的集中式学习方案训练RUL预测模型。这种方法通常表现出最好的性能,并提供了一个上界。4)FedAvg:作为最经典的FL方法之一,FedAvg被用于验证FedRUL的优越性。在该方法中,服务器通过本地训练数据集将全局RUL预测模型下载到每个客户端进行训练。然后,将每个客户机中的参数上传到服务器,并通过平均聚合到更新的全局模型中。5)FedRUL2:为了验证CAE聚合中加权求和的作用,构建该方案。在该方法中,局部编码器的参数通过平均直接组合。由于对本地数据质量较低的客户的疏忽,该方法可能会受到这些数据的负面影响。训练完成后,应用服务器中的测试数据集,通过不同的方法进行RUL预测。然后,实现中值滤波器平滑预测的规则规则。图9为RUL的预测结果,其中真实RUL用黑点虚线表示,预测RUL结果用彩色实线表示。图9 通过6种方法对4种刀具的RUL进行预测的结果(2)评价指标:为了定量地评价所有方法的RUL预测结果的性能,本文采用了评分函数(Score)、均方根误差(RMSES)和收敛率(CR)三种常用指标。1)Score:在2008预后与健康管理数据挑战赛[23]中首次提出并使用评分函数 式中, 为样本数, 为预测RUL与实际RUL之差。这个函数是不对称的,因为预测的RUL小于实际RUL的情况更容易接受。然而,应该注意的是,由于分数随着误差的增加呈指数增长,该函数对具有非常大的预测误差[24]的单个异常值格外敏感。为了解决这个问题,本文选择RMSE作为第二个度量。2)RMSE:一般采用RMSE来评价预测RUL与实际RUL的拟合程度。与Score不同,RMSE赋予所有样本相同的权重。计算方法如下: 3)收敛速度:CR可以根据给出的误差曲线下的区域原点到质心的欧氏距离来测量 式中, 和 分别为预测误差曲线下区域质心的横坐标和纵坐标。CM越低,收敛速度越快。为了说明所有方法的性能,这三个指标绘制在图10中。从这个结果来看,FedRUL虽然不如UpperLimit,但优于其他。此外,FedRUL2和FedAvg也表现出令人满意的性能。对于OneByOne来说,由于不同客户端的梯度不一致,可能会影响其性能。由于数据量不足,基线方法的性能是所有方法中最差的。图10 6种方法下Score、RMSE和CR的结果图6 案例研究二在本节中,使用XJTU-SY轴承数据集验证了所提出方法的性能和优越性。该数据集来自西安交通大学与长兴Sumyoung科技有限公司共同搭建的测试平台。6.1 数据集建立 XJTU-SY轴承数据集使用在三种不同工作条件下实现的15种不同的滚动轴承构建。在这些条件下,三个客户端分别负责收集数据。各轴承的实验设置和样样量如表4所示。实验中,采用DT9837便携式动态信号采集器采集X方向和y方向的振动信号。其中,每秒采集25600个数据点,采样间隔设为1.28 s。两次收集之间的时间间隔为1分钟。Wang等人[25]提供了关于该数据集的更多信息。在本例中,选取归一化后的20000个时间点作为样本基准,预测相应的一分钟RUL。使用两个方向的两个信号,使输入的形状为20000 × 1 × 2。6.2 实验结果 为了进一步验证FedRUL的有效性,在本例中应用了相同的控制组和评估量度。图11为在测试数据集Bearing1_3、Bearing2_2、Bearing3_4上的RUL预测结果。图11 通过6种方法预测3种轴承的RUL结果结果表明,UpperLimit算法具有最佳的拟合度和收敛性,FedRUL和FedRUL2算法也具有令人满意的效果。相反,BaseLine和OneByOne由于数据不足和非独立的同分布而性能较差。为了量化这些结果,我们使用Score、RMSE和CR,如图12所示。图12不同方法下Score、RMSE和CR的结果图 7 总结本文提出了一种新的基于逻辑推理的方法—FedRUL来实现机器的剩余寿命预测。该方法主要处理有限样本量下不同客户端之间的数据孤岛问题。为了减少通信成本和计算负担,在客户端和服务器之间只传输浅层编码器和底层特征,而不是整个RUL预测模型。通过两个实验验证了该方法的优越性。根据实验结果,得出以下结论:首先,为所有客户端的本地编码器分配不同的权重,可以有效地避免一些客户端使用低质量的本地数据集带来的负面影响。其次,FL能够全面地同时考虑来自所有客户端的知识,这保证了所提出方法的性能。最后,由于训练过程中数据的非独立同分布,从不同客户端提取的特征可能会产生相反的更新方向,这通过OneByOne和BaseLine的性能表现出来。该方法利用了从多个客户端数据中学习到的知识,同时保证了数据的隐私性,为RUL预测提供了一种很有前途的基于FL的方法。根据实验结果,提出了今后的工作和可能存在的局限性。1) 模型参数和特征的加密在FL框架中是必要的。近年来,人们提出了同态加密、秘密共享和差分隐私等技术来解决这一问题。尽管如此,它们可能会影响计算效率和模型精度。因此,设计一种更好的加密算法是未来的研究方向之一。2) 本文忽略了数据清洗和异常点检测。相关工作可能会在未来进行。3) 需要指出的是,FedRUL的性能与UpperLimit相比仍然存在明显的差距。将进一步开展研究工作,开发更有效的FL框架来应对这一挑战。编辑:Tina校核:李正平、陈凯歌、赵栓栓、曹希铭、赵学功、白亮、任超、陈宇航、海洋、 陈莹洁、王金该文资料搜集自网络,仅用作学术分享,不做商业用途,若侵权,后台联系小编进行删除来源:故障诊断与python学习

未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习计划 福利任务
下载APP
联系我们
帮助与反馈