首页/文章/ 详情

综述 | 面向机器信号处理和故障诊断的物联网边缘计算综述(下)

4天前浏览19

    随着传感器技术的不断发展,越来越多的传感器被安装在机器或设备中。这些传感器在运行过程中会产生海量的“大数据”。然而,一些原始传感器数据受到噪声干扰,有用信息有限,且大量数据上传会占用大量网络带宽,并不断消耗云服务器的存储和计算资源。数据上传、信号处理、特征提取和融合也会不可避免地造成延迟,影响故障检测和识别的及时性。本文将从概念、前沿方法、案例分析和研究展望等方面对基于信号处理的机器故障诊断中的边缘计算方法进行综述。

    论文链接:通过点击本文左下角阅读原文进行在线阅读及下载

    论文基本信息

    论文题目:

    Edge Computing on IoT for Machine Signal Processing and Fault Diagnosis: A Review

    论文期刊:IEEE INTERNET OF THINGS JOURNAL

    论文日期:2023年1月

    论文链接:

    https://doi.org/10.1109/JIOT.2023.3239944

    作者:Siliang Lu (a), Jingfeng Lu (a), Kang An (a), Xiaoxian Wang (b, c),  Qingbo He (d)

    机构:

    a: College of Electrical Engineering and Automation, Anhui University, Hefei 230601, China;

    b: College of Electronics and Information Engineering, Anhui University, Hefei 230601, China;

    c: Department of Precision Machinery and Precision Instrumentation, University of Science and Technology of China, Hefei 230027, China

    d: State Key Laboratory of Mechanical System and Vibration, Shanghai Jiao Tong University, Shanghai 200240, China

    通讯作者邮箱: qbhe@sjtu.edu.cn

    作者简介:

    陆思良,1987年生,博士,教授,博士/硕士生导师,安徽省优青、安徽省青拔、全球前2%顶尖科学家、IEEE Senior Member。分别于2010年、2015年获中国科学技术大学学士和博士学位。

    主要从事机电复杂系统动态测试与智能运维、边缘计算与嵌入式系统、信息处理与人工智能、机器人与工业工厂自动化研究。主讲《传感器原理及应用》、《测试技术与数据处理》、《机器人技术》、《科技论文写作》等课程。主持国家自然科学基金3项(面上2项、青基1项),安徽省自然科学基金优青项目1项、青年项目1项,国家重点实验室开放课题2项,国家电网、奇瑞汽车、中国机械总院等校企合作开发项目多项。

    发表学术论文100余篇,引用3000余次,入选ESI前1%全球高被引论文5篇。申请/授权/转让国家发明专利共计30余项。担任仪器测量领域权威期刊《IEEE Trans. Instrum. Meas.》副编辑、《J. Dyn. Monit. Diagnost.》编委、《西南交通大学学报》青年编委。担任50余个机电信号处理和智能诊断等领域的国内外期刊审稿人、国家自然科学基金同行评议专家。获上海市科学技术二等奖、安徽省自然科学二等奖、中国电工技术学会科学技术一等奖、国家自然科学基金委机械学科优秀结题项目等。担任中国振动工程学会故障诊断专业委员会理事及青工委成员、中国振动工程学会转子动力学专业委员会理事、中国机械工程学会设备智能运维分会委员。

    目录

    1 摘要

    2 引言

    边缘计算的基本原理

    物联网边缘计算在机器信号处理与故障诊断中的实现

    案例研究和教程

            5.1 利用基于神经网络的编码器对振动信号进行压缩

            5.2 基于Arm-Cortex M MCU的面向原位电机故障诊断的多传感器信号处理

            5.3 基于Arm-Cortex CPU的面向电机转子质量实时检测的改进的CNN

            5.4 评论

    讨论与研究展望

            6.1 用于机器RUL预测的边缘计算

            6.2 联邦学习与分布式训练

            6.3 机器异常检测与动态控制

            6.4 高效异构计算和神经计算

            6.5 人工智能集成的下一代计算

            6.6 评论

    7 总结

    (以上标记章节为本文内容)

    1 摘要

    边缘计算是一种新兴的范式。它将计算和分析工作负载卸载到物联网(Internet of Things,IoT)边缘设备上,以加速计算效率、减少信号传输的信道占用、并降低云服务器上的存储和计算工作负载。这些独特的优点使其成为基于IoT的机器信号处理和故障诊断的一个有前景的工具。本文从概念、前沿方法、案例分析和研究展望等方面对基于信号处理的机器故障诊断中的边缘计算方法进行了综述。特别地,对边缘计算在信号采集、信号预处理、特征提取和模式识别等典型故障诊断过程中的轻量级设计算法和特定应用的硬件平台进行了详细的回顾和讨论。本文对边缘计算的框架、方法和应用进行了综述,以满足基于IoT的机器实时信号处理、低延迟故障诊断和高效的预测性维护的需求。特别是对边缘计算在典型故障诊断过程(包括信号采集、信号预处理、特征提取和模式识别等)中的轻量化设计算法和专用硬件平台进行了详细的综述和讨论。该综述提供了对边缘计算框架、方法和应用的深入理解,以满足基于IoT的机器实时信号处理、低延迟故障诊断和高效预测性维护的需求。

    关键词:边缘计算,物联网,低延迟故障诊断,机器,实时信号处理

    5 案例研究和教程

    为了更好地说明边缘计算在机器信号处理和故障诊断中的性能和潜在应用,本节提供了三个案例研究,分别侧重于信号预处理、特征提取和模式识别。这些案例研究的代码也在网站上共享,以提供直观的教程,感兴趣的读者可以下载、修改并移植到不同的应用场景中。在第一个案例中,使用基于神经网络的编解码器来说明边缘节点上振动信号压缩的性能。在第二个案例中,将经典信号处理算法在低成本MCU上实现,用于原位电机故障诊断。在第三个案例中,将CNN DL模型部署到树莓派平台上,用于实时检测电机转子质量。

    5.1 利用基于神经网络的编码器对振动信号进行压缩

    振动信号分析是机器故障诊断中最常用的方法。随着IoT节点数量的增加,如何有效地压缩和传输大量振动信号是一个挑战。在本案例研究中,使用Meta AI团队提出的一种名为EnCodec的编解码器来测试振动信号压缩性能[90]。该编解码器是基于神经网络设计的用于音频信号压缩的编解码器。音频信号和振动信号有相似之处,但振动信号通常受到噪声干扰。案例[137]研究在树莓派边缘计算节点上实现EnCodec,以处理从开关磁阻电机试验台采集的轴承故障振动信号。此类实验在文献中尚未有报道。根据轴承参数和电机转速计算,测试的带有外圈故障的轴承的故障特征频率(    )为75Hz。

    采样频率和采样时间分别设为24kHz和1s。通过计算原始信号和压缩/解压信号的包络谱,可以显示    分量用于故障识别。信号压缩会造成信息丢失,因此采用信噪比来评价信号质量。信噪比的计算可参见[137]。压缩比(Compression ratio,CR)用来评价信号的压缩程度,定义是原始信号的文件大小与压缩后信号的文件大小之比。

    比较结果如图7所示。从图7(a)中压缩前原始振动信号的包络谱可以看出,故障指标    及其多个谐波分量可以被清晰地识别到。原始信号的信噪比是-1.38dB。信号首先在树莓派上以约16倍的CR进行压缩,然后解压缩以恢复信号波形。解压缩信号的包络谱如图7(b)所示。从图中可以看出,信号压缩和解压缩后出现明显的噪声分量,信噪比降低到-13.93dB。这些结果证实了基于神经网络的EnCodec是一种有损编解码器。此外,CR增加到约32倍时,结果如图7(c)所示。与图7(b)中的结果相比,可以发现信噪比进一步降低到-17.74dB,背景噪声更加明显。尽管信号压缩和解压缩后      被淹没在背景噪声中,但仍可用于识别轴承故障类型。引入信号去噪算法对解压后的    分量进行联合增强有待进一步研究。

    图7 基于神经网络的EnCodec信号压缩结果:(a) 原始信号的包络谱,(b) 16倍CR的解压缩信号,(c) 32倍CR的解压缩信号。

    表9 评估了树莓派上不同长度振动信号的压缩和解压缩时间。可以发现,压缩或解压缩所需的时间总体上与信号长度成正比。在大多数应用场景中,具有4800个采样点的信号足以进行轴承故障诊断。在这种情况下,边缘节点上的压缩时间为0.332秒,对于实际应用是可以接受的。本案例研究表明,EnCodec是边缘设备上信号压缩的一种有前途的解决方案,将有效提高IoT节点与云服务器之间的信号传输效率。EnCodec的代码可在文献[138]中获取。

    表9 树莓派上振动信号的压缩和解压时间

    5.2 基于Arm-Cortex M MCU的面向原位电机故障诊断的多传感器信号处理

    在案例[139]中,作者设计了一个用于在变速工况下进行原位电机故障诊断的边缘计算节点。算法和硬件平台如图8所示。该案例使用一个隧道磁阻效应(Tunneling magnetoresistance,TMR)传感器(TMR2001,MultiDimension公司)和一个加速度计(ADXL1001,Analog Devices 公司)分别采集电机漏磁通信号和振动信号。这两个信号由一个16位ADC(AD7606,Analog Devices公司)以10kHz的采样频率进行量化和采样。然后,信号通过灵活内存控制器(Flexible memory controller,FMC)外围接口传输到一个MCU。使用一个零相位滤波器对受噪声干扰的磁通信号去噪,并对滤波后的信号进行希尔伯特变换,以估计变速工况下电机转子的旋转角度。

    图8 用于电机实时诊断的边缘计算算法和硬件

    随后,根据旋转角度对振动信号进行重采样,然后使用基于随机共振的滤波器进一步增强信号[140]。上述算法CPU主频为400MHz的MCU(STM32H743,STMicroelectronics公司)上实现。最后,计算重采样和增强后的振动信号的包络阶次谱,并通过液晶显示器-薄膜晶体管显示控制器(LCD-thin-film transistor display controller,LTDC)外围接口在一个5英寸液晶显示器(Liquid crystal display,LCD)上显示,用于原位电机故障诊断。

    在电机上安装一个带有外圈故障的轴承进行测试,计算出轴承的故障特征阶次(Fault characteristic order,FCO)为3.59[141]。边缘计算系统在不同阶段产生的信号处理结果显示在LCD上,如图9所示。图9(a)和(b)分别为漏磁信号频谱和振动信号包络谱。可以看出,由于电机转速波动,频率拖尾现象明显。通过分析同步采样的漏磁信号计算旋转角度,然后对振动信号进行重采样。重采样信号的包络阶次谱如图9(c)所示。在频谱中可以看到FCO,表明轴承存在外圈故障

    为了进一步消除噪声干扰,对重采样信号进行基于随机共振的滤波,最终结果如图9(d)所示。信号增强后,FCO分量进一步凸显,噪声分量几乎被滤除。上述信号处理算法均在帧长设置为4096点的MCU上执行,并将各算法的执行时间汇总在表10中。可以发现,旋转角度计算和包络谱计算算法的执行时间最高(约40ms),因为这两个算法需要进行FFT运算。其他算法的执行时间不高于10ms。六个算法的总执行时间约为105ms,这表明机器信号处理算法可以在MCU上实现,用于原位电机故障诊断。本案例研究的相关代码可在文献[142]中获取。

    图9 在LCD上显示的实时信号处理结果:(a)漏磁信号的频谱;(b)原始振动信号,(c)重采样振动信号,(d)增强重采样振动信号的包络谱。
    表10 信号处理算法在MCU上的执行时间

    5.3 基于Arm-cortex CPU的面向电机转子质量实时检测的改进的CNN

    鼠笼式感应电机在电动汽车中得到广泛应用。为了保证转子的性能以及电动汽车的效率和续驶里程,需要对压铸转子进行质量检测[143]。在本案例中,设计并在树莓派边缘节点上部署了一种改进的CNN,用于检测转子中的断条和气孔缺陷。采集缺陷引起的电压信号的仪器系统可参考文献[130]和文献[144]。如图10所示,电压信号首先通过一个分压器,然后由一个ADC(AD7606,Analog Devices公司)采样。连接ADC和MCU的外围接口是FMC。在一个MCU(STM32H743,意法半导体公司)上从电压信号中提取峭度特征。提取到的特征的时间序列通过USART外围接口传输到树莓派。在CPU上执行改进的CNN模型,并将质检结果通过高清多媒体接口(High-definition multimedia interface,HDMI)连接到树莓派的小尺寸显示器上显示。
    改进的CNN模型基于包含混合特征和捷径的残差结构。这种配置提高了卷积核的多样性和参数利用率,并降低了网络参数的训练难度。此外,增强型CNN模型[123]和GoogLeNet[145]也被部署到同一边缘节点上进行比较。这些模型在计算机上使用离线信号(包括九种类型的转子缺陷)进行训练。将训练好的模型部署到插入树莓派的TF卡中进行实时推理。转子质量检测结果直接显示在LCD上,如图11所示。如图11中的红线所示,特定缺陷类型的概率为1,其他缺陷类型的概率为0。改进的CNN模型预测的缺陷类型与预设的缺陷类型一致。表11综合比较了不同深度学习模型在边缘计算节点上检测转子质量的效果。可以发现,改进的CNN模型具有最高的训练、验证和测试准确率,并且模型仅占用7MB的存储空间树莓派上每帧的推理时间约为170ms,明显低于转子生产周期(通常为几秒到几十秒)。因此,在实际生产线中可以实现电机转子的实时质量检测。本案例研究的相关代码可在[146]中获取。
    图10 电机转子质量实时检测的边缘计算算法及硬件示意图

    图11 在LCD上即时显示的转子质量检测结果

    表11 在边缘计算节点上不同DL模型进行转子质量检测的比较

    5.4 评论

    考虑到研究人员在边缘节点上实现信号处理和故障诊断算法可能存在一些困难,本部分提供了三个案例研究和源代码。这些案例研究对应于机器故障诊断的4个典型过程中的3个,即信号预处理、特征提取和模式识别。信号采集作为机器故障诊断的第一步,在所有这些案例研究中都有包含。希望共享源代码为更好地理解和实现边缘计算技术在机器信号处理和故障诊断的实际应用中提供一个直观的教程。

    6 讨论与研究展望

    边缘计算能够快速分析机器信号,从而提高故障诊断的敏捷性。以下讨论边缘计算在与其他技术协作方面的研究前景。本部分讨论的主题与第三节中的综述主题的主要区别在于:1)第三节中的主题,如“边缘计算在机械故障识别中的应用”,在过去几年中已得到广泛研究,并取得了许多有用和有前景的结果;2)本节中的讨论主题,如“边缘计算在机器剩余使用寿命(Remaining useful life,RUL)预测中的应用”,非常有意义值得研究,但相关工作尚未广泛开展。

    6.1 用于机器RUL预测的边缘计算

    利用历史状态信息预测RUL的机器RUL预测技术是机器预测性维护的关键步骤[147],[148]。受计算和存储资源的限制,用于RUL预测的机器数据以几分钟到几小时的周期进行采样、分析和更新[149]。这种操作基于机器状态保持稳定且不会快速变化的假设。然而,一些机器故障和裂纹从初始状态会迅速发展到严重状态。在这种情况下,应提高监测数据的更新频率,并利用边缘计算技术及时分析产生的大量数据。然而,在用边缘计算进行RUL预测时存在两个障碍1)机器生命周期数据仍然难以获取,因此预测精度有限;2)具有大量参数的预测模型应在较短的采样周期内迭代更新,需要高可靠性的边缘计算硬件能够全天候不间断工作。因此,目前基于边缘计算的实时机器RUL预测研究较少。随着硬件技术和RUL预测算法的不断发展,上述障碍有望得到解决。

    6.2 联邦学习与分布式训练

    状态数据是由分布在不同地方的大量机器产生的。由于技术或商业原因,这些数据可能无法共享。换句话说,存在数据孤岛的现象。为了解决这个问题,联邦学习范式近年来被提出并迅速发展[150],[151]。在联邦学习中,部分ML或DL模型的参数以分布式的形式进行训练,然后将这些参数融合、集成以获得训练良好的模型[152]。部分模型的训练可以在安装在数据源附近的边缘计算节点上进行。文献[153]表明,深度学习模型可以方便地在具有足够计算能力的边缘GPU节点上进行训练。联邦学习与边缘计算的协作可以提高模型训练效率,实现知识共享,并保护用户隐私。

    6.3 机器异常检测与动态控制

    运行中的机器具有危险性,工人应保持高度警惕以避免任何可能的危险。然而,误操作和无意识操作故障仍然难以避免,这将导致机器出现异常故障[154]。机器的异常故障可能在毫秒内发生,例如长发卷入机床。因此,应实时检测机器的异常状态,以避免严重的人身伤害。边缘计算是一种很有前途的工具,它通过检测机器的异常并在较小的时间延迟内控制机器来保护人身安全。文献[115]表明,通过将基于神经网络的故障检测算法部署到边缘节点上,可以在250ms内关闭以3000rpm旋转的电机。通过改进算法和硬件性能,从异常检测到动态控制的时间延迟可以得到进一步缩短。

    6.4 高效异构计算和神经计算

    一般来说,边缘计算芯片的性能和功耗是相互矛盾的。高性能处理器的高功耗会降低IoT节点上电池的使用寿命。因此,在设计基于边缘计算的机器状态监测系统时,需要仔细权衡性能和功耗。该问题可以通过SoC半导体技术和异构计算框架的发展来解决。SoC技术将多个处理器集成到一个芯片上。在异构计算框架中,操作系统会动态分配具有不同计算性能和功耗的处理器,以满足来自应用程序的不同计算负载[155]。这种技术在集成框架中优化了硬件和算法,最大限度地降低了功耗,延长了电池寿命。异构计算已广泛应用于消费电子和工业自动化领域。例如,英特尔第12代处理器拥有多达14个核心的混合CPU架构,包括6个性能核心和8个能效核心。苹果M1 Ultra处理器有64个GPU核心和20个CPU核心,包括16个性能核心和4个能效核心。STM32WB处理器结合了高性能Arm Cortex-M4核心和低功耗Arm Cortex-M0+核心进行无线通信。异构计算和边缘计算的结合将推动高效机器信号处理和故障诊断的应用。
    在传统计算架构中,数据在内存和处理单元之间传输。随着数据量的增加,这样的过程会消耗大量能量。为了打破这个瓶颈,存内计算架构的概念引起了研究人员的极大关注。忆阻电路和芯片已显示出比传统计算平台(如CPU和GPU)高几个数量级的能量效率[156]。例如,文献[157]设计了一种基于忆阻器的模拟储备计算系统,用于实时和高能效的信号处理。文献[158]设计了一种全硬件实现的忆阻器CNN电路,用于图像识别。其结果表明,基于忆阻器的CNN神经形态系统的能量效率比最先进的GPU高出两个数量级以上。更一般地,文献[159]引入了反向传播方法来训练物理神经网络,它具有比传统的电子处理器更快和更节能地进行ML的潜力。神经启发芯片可用于基于IoT的ML故障诊断应用,这些应用需要极低的功耗和硬件成本。

    6.5 人工智能集成的下一代计算

    边缘计算和云计算本质上是互补的。随着人工智能、ML和DL的快速发展,边缘计算可以与其他类型的下一代计算技术协作,进一步提高计算效率、隐私和安全性[160]。例如,雾计算也是随着IoT节点和大量数据的兴起而对云计算的补充。雾计算在数据源和云服务器之间提供了一个由网 关、路由器和边缘计算节点组成的网络。云、雾和边缘计算的结合可以为处理不同大小和容量的机器信号提供灵活的网络架构[161]。量子计算是一种有前景的技术,通过对量子系统量子态中的信息进行编码和处理,可以显著加快计算效率[162]。目前,只能处理特定算法的量子计算系统仍然体积庞大且价格高昂。如果未来这些问题能够得到妥善解决,量子计算算法可能会被部署到边缘计算节点上,以提高机器信号处理的隐私性和速度。
    无服务器计算在设计云原生应用程序中也很流行。通过使用无服务器计算,工程师可以专注于算法,减少对基础设施管理的关注。基于无服务器架构的人工智能和ML算法可以使机器信号处理和故障诊断更容易、更准确[163]。此外,区块链技术为保证机器状态数据不可篡改提供了解决方案[164]、[165]。通过将区块链和边缘计算相结合,可以以安全的方式收集和处理来自分布式IoT节点的数据。有关人工智能集成的下一代计算的更全面介绍和讨论可参考文献[160]。

    6.6 评论

    从以上讨论可以看出,边缘计算并不是一个孤立的技术,它可以与其他新兴技术进行协作。机器智能维护是工业4.0的重要组成部分,已成为典型的涉及机械、电子、信息科学的交叉学科。随着电子和信息技术的不断发展,越来越多的智能IoT传感器被安装在机器上监测其运行状态。边缘计算与其他技术的协同将进一步提高机器信号处理和故障诊断的性能。

    7 总结

    本研究综述了基于边缘计算和IoT的机器信号处理和故障诊断方法。首先,介绍了边缘计算的范式、硬件和平台。然后,从信号采集、信号预处理、特征提取和模式识别等方面综述了用于基于机器信号处理的故障诊断的先进边缘计算方法。此外,提供了三个案例研究,直观地说明了边缘计算在振动信号压缩/解压缩、实时机器故障诊断和原位转子质量检测中的应用。最后,从RUL预测、联邦学习与分布式训练、异常检测与动态控制、异构计算与神经计算以及人工智能集成的下一代计算等方面讨论了边缘计算的研究前景。本综述将有助于学术界和工程师设计实时、低延迟的基于IoT的机器状态监测和故障诊断系统的算法和硬件实现。

    原文获取:

    点击文章左下角阅读原文获取文章原文。

    编辑:陈宇航
    校核:李正平、陈凯歌、赵栓栓、曹希铭、赵学功、白亮、任超、海洋、Tina
    该文资料搜集自网络,仅用作学术分享,不做商业用途,若侵权,后台联系小编进行删除
    点击左下角阅读原文,即可在线阅读论文。


    来源:故障诊断与python学习
    ACTMechanicalSystemMAGNET振动旋转机械电路半导体航空汽车电子python消费电子芯片云计算声学裂纹电机人工智能
    著作权归作者所有,欢迎分享,未经许可,不得转载
    首次发布时间:2024-12-14
    最近编辑:4天前
    故障诊断与python学习
    硕士 签名征集中
    获赞 72粉丝 72文章 152课程 0
    点赞
    收藏
    作者推荐

    基于领域适应性的数字孪生辅助人工智能框架,用于离心泵轴承缺陷诊断(下)

    本期给大家分享一篇小编近期阅读的数字孪生技术相关文章。如果有故障诊断相关方向研究人员希望宣传自己研究成果,欢迎大家在公众 号后台与小编联系投稿,大家一起交流学习。数字孪生是当前故障诊断领域的研究热点。本期推荐的这篇是中国科学院阿尼尔·库马尔院士的文章,这篇文章中提出了一种新的结合数字孪生技术和领域自适应的框架,为判断轴承缺陷提供了解决方案。本文展现了结合领域自适应技术在数字孪生的辅助下,应用于工业领域中,显著增强了预测性维护策略的潜力。由于文章篇幅过长,小编将分两次为大家翻译介绍这篇综述,本节推文是这篇文章的下半部分,希望对大家的学习有所帮助,文章质量很高同时希望大家可以多多引用,特别是对所提方法的借鉴。论文链接:通过点击最左下角的阅读原文进行在线阅读及下载。论文基本信息论文题目: Digital twin-assisted AI framework based on domain adaptation for bearing defect diagnosis in the centrifugal pump论文期刊:MeasurementDoi:https://doi.org/10.1016/j.measurement.2024.115013作者: Anil Kumar(a), Rajesh Kumar(b), Jiawei Xiang(a), Zijian Qiao(c), Youqing Zhou(d), Haidong Shao(e) . 论文时间: 2024年 机构: a College of Mechanical and Electrical Engineering, Wenzhou University, Wenzhou, 325 035, China b Sant Longowal Institute of Engineering and Technology, Longowal, 148 106, India c Zhejiang Provincial Key Laboratory of Part Rolling Technology, School of Mechanical Engineering and Mechanics, Ningbo University, Ningbo 315211, Zhejiang, China d College of Mechanical and Electrical Engineering, Jiaxing Nanhu University, Jiaxing 314001, China e School of Mechanical and Vehicle Engineering, Hunan University, Hunan 410082, China 作者简介:阿尼尔·库马尔,于1970年获得俄亥俄州立大学电气工程硕士学位;1973年获得俄亥俄州立大学博士学位。1974年至1982年,他在密歇根州立大学计算机科学系担任助理教授、副教授、教授;1992年起任密歇根州立大学杰出教授;1995年至1999年任密歇根州立大学计算机科学与工程系主任;2016年当选为美国国家工程院院士和印度国家工程院外籍院士;2019年当选为中国科学院外籍院士和发展中国家科学院院士。(来源:ResearchGate) 摘要离心泵中的轴承缺陷是设备故障的常见来源,通常会导致设备停机并产生大量维修费用。深度学习算法可以用于检测缺陷。然而,在现实世界中,往往存在标记数据的稀缺性。为了应对这一挑战,我们提出了一个结合数字孪生技术和领域自适应的框架,用于准确判断轴承缺陷。我们所提出的框架利用数字孪生的概念创建泵轴承的虚拟表示,从而实现对操作条件的实时监测和仿真。然后应用领域自适应技术,将知识从数字孪生产生的合成数据传递到实际操作环境,克服合成和真实世界数据之间的领域差距。研究结果突显了数字孪生辅助结合领域自适应技术在工业应用中增强预测性维护策略的潜力。 关键词:数字孪生;AI;轴承缺陷; 离心泵;深度学习;领域适应性 目录1 引言2 各种领域适应方法 2.1 领域对抗神经网络 2.2 最大分类器差异 (MCD) 2.3 面向领域自适应的自集成(SEDA)3 模拟和实验 (SE) 分析:整合动态模拟和实验结果 3.1 模拟模型 3.2 实验分析 3.3 基于数字孪生辅助领域适应的缺陷诊断框架4 结论注:小编能力有限,如有翻译不恰之处,请多多指正~ 若想进一步拜读完整版,请下载原论文进行细读。 3仿真和实验( SE )分析:整合动态仿真和实验结果在本部分中,我们对动态模拟和实验(SE:Simulation and Experimental)分析进行了全面的探索,以开发使用领域自适应的数字孪生辅助AI框架,用于离心泵中的轴承缺陷诊断,建立了轴承的集中质量模型。本部分还建立了离心泵的物理模型,这一部分详细介绍了离心泵的物理模型,概述了设计考量、实验装置和实验数据的分析。在这一部分中,我们应用了一个基于领域自适应的缺陷诊断框架,利用机器学习算法在领域之间进行知识迁移。3.1 模拟模型所描述的泵系统动态集中质量模型包含关键组件,如转子、轴承和叶轮,以模拟其动态行为。在该模型中,转子被简化为两个质量点,位于质心处,并连接到两个轴承和一个叶轮。轴承1和2被表示为弹簧阻尼系统,以捕捉其刚度和阻尼特性,其中轴承1位于靠近叶轮的位置。由三个旋转叶片组成的叶轮被建模为连接到转子轴的集中质量。用于模拟离心泵轴承缺陷的动态模型如图1所示。图1 .离心泵转子轴承系统的集中质量模型。(4)式表示轴承座H1在水平方向( x )上的动平衡。式中:m_H1、( kCH_ Hr1、cCH_Hr1)、( kHB_Hr1、cHB_Hr1)分别表示轴承座H1的质量、刚度和阻尼系数;下标H1、C1、B1分别表示系统内部不同的点或部件:H1对应轴承座,C1对应机匣,C1对应轴承。术语涉及机匣与机匣、机匣与轴承之间的CH和HB连接/接口。Hr和V分别表示水平和垂直方向上的参数。与方程( 4 )类似,方程( 5 )表示轴承座H1在竖直方向( y )上的动平衡。术语和变量的含义与式( 4 )类似,但适用于垂直方向。该方程( 6 )表示转子r1在水平方向( x )上的动平衡。其中mr1、k和crb分别表示转子r1的质量、刚度和阻尼系数。F xb1表示作用在转子r1上的外力,可能是由于与轴承b1有一定的相互作用。与方程( 6 )类似,方程( 7 )表示转子r1在竖直方向( y )上的动平衡。术语和变量的含义与方程( 6 )类似,但适用于垂直方向。mr1g表示作用在转子r1上的重力。式( 8 )表示支座b1在水平方向( x )上的动平衡。mb1,m_b1和kHB_ H1,cHB_H1分别表示轴承b1的质量、刚度和阻尼系数。F_xb1和F_yb1是周期性变化的接触力,即球与球之间的接触力在水平和垂直方向上以不同的角度发生融合。与方程( 8 )类似,该方程( 9 )表示支座b1在竖直方向( y )上的动力平衡。这些术语和变量与方程( 8 )中的术语和变量有相似的含义,但它们适用于垂直方向。m_b1g表示作用在轴承b1上的重力。接触力 和 的变化来源于滚珠与滚道之间不同角度接触力的组合。第 个球的角位置,记为 , 由一个特定的公式确定: 其中ω_c为角速度,t为时间,Nb为小球总数,π为数学常数pi。当小球位于缺陷区域内时,由公式mod ( theta ( j ),360 ) φ < β划定,通过计算确定恢复力:否则,若小球位于缺陷区域之外,则恢复力为:式子中:为位移,为常数,和为位置坐标,为参考位移,为缺陷引起的位移,为激活函数。式子中定义激活函数H,当 于0时,H等于1;否则,等于0。在此背景下, 表示缺陷的角度方向,β表示缺陷在球心处所受的角度。在这里, 表示第i个球的角位置, 表示第i个球与滚道之间的接触力,根据参考文献中提供的公式计算。[19]。 由缺陷区域引起的附加间隙,称为δD,定义为:δD等于球的半径之差,记为r_B,球的半径的平方与缺陷宽度或范围的平方之差的平方根,记为L_D。在方程( 12 )和( 13 )中,参数C_b作为赫兹接触刚度的指标。球与滚道之间的间隙记为δj,其初始值由δ0确定。不同工况下的动力学仿真所产生的振动信号如图2所示。数据的标注如表1所示。图2 .针对不同工况进行动力学仿真产生的振动信号。表1 数据标记。3.2 实验分析 图3所示的实验装置工作在43赫兹的频率下,包括由两个轴承支撑的转子,分别称为轴承1和轴承2。轴承1位于离叶轮更近的位置,被指定为测试轴承,其型号为6203-ZZ。叶轮固定在转子轴上,并伸出到叶轮壳体内。它由三个旋转叶片组成,负责将流体沿轴向通过叶轮进口。图4显示了对应于各种条件的振动信号。图3 .测试( a )原理图( b )实拍图。图4. 来自不同状态下的振动信号(a)无缺陷(类别0)(b)内圈缺陷(类别1)(c)外圈缺陷(类别2)(d)滚珠缺陷(类别3)。3.3基于数字孪生辅助领域适应的缺陷诊断框架用于离心泵轴承缺陷诊断的数字孪生辅助人工智能框架涉及创建泵轴承的虚拟表示(数字孪生)。这种数字孪生用于模拟水泵轴承的行为行为,并检测出指示轴承缺陷的异常。生成仿真信号的流程图如图5所示。图5. 数字孪生辅助条件监测框架布局。领域自适应技术用于将从模拟环境中获得的知识适应泵的实际运行条件。来自动态模型的数据被称为源域,而实际运行工况被称为目标域。这种对抗式的竞争促使模型发展领域不变的表示,有利于提高适应性。具体的方法步骤如下:1.从仿真(源域)和实验(目标域)数据中提取信号片段。对提取的信号片段进行归一化处理,保证跨域输入数据的一致性。2.设计以领域对抗神经网络( DANN :Domain Adversarial Neural Network)为核心的模型架构。融入单传感器卷积神经网络( CNN :Convolutional Neural Network )进行特征提取和分类。3.使用梯度反转层增强CNN架构。该层通过反向传播过程中的梯度反转,在领域适应过程中发挥了关键作用,从而鼓励网络学习领域无关的特征。这种方法最大限度地减少了领域特异性变异的影响,有利于知识从模拟域到实验域的有效转移。该模型架构是一个带有额外域分类器分支的卷积神经网络,架构分解如表2所示。表2 DAN的网络体系结构 4.使用准备好的数据训练模型,遵循设计的架构和优化方法。在模型训练过程中共同优化任务特定(分类)和领域对抗损失。通过同时最小化分类错误和最大化领域混淆,模型学习领域不变表示。通过同时优化分类性能并促进领域不变表示,提出的方法为离心泵轴承故障检测在不同操作环境中提供了健壮的解决方案。5 .在来自目标领域的实验数据上对训练好的模型进行评估。评估模型在轴承故障检测中的性能及其跨领域泛化的能力。在训练阶段,模型使用源域数据进行训练,同时最小化领域差异,以增强其对目标域的泛化能力。这是通过联合优化任务特定损失和领域对抗损失来实现的,并仔细考虑了损失加权,以确保均衡的训练目标。训练过程如图6所示。此外,训练过程结合了标准的做法,如模型检查指向和提前停止,以防止过拟合并促进收敛。图6 . DAN适应过程中的训练表现。训练完成后,在测试集上从来源和领域两个方面对模型的性能进行综合评估。缺陷识别结果如表3所示。在源域和目标域数据上的准确率分别为89.27 %和99.55 %。模型的预测能力通过混淆矩阵(图7)进行可视化,从而揭示其在不同故障类别上的分类性能。表3预测结果( a )源域和( b )目标域。图7 .使用DAN方法的混淆矩阵( a )源域和( b )目标域。域适应网络( DAN:Domain Adaptation Network )的选择是通过一个试错的过程来实现的。值得注意的是,我们还探索了多种域适应方法,如最大分类器差异( MCD:Maximum Classifier Discrepancy )和自集成视觉域适应( SEDA:Self-Ensembling for Visual Domain Adaptation )。他们的结果在这里给出。我们的方法包括尝试不同的适应技术,以确定最有效的适应技术。其次,采用最大类间方差( MCD:Maximum Classifier Discrepancy,)进行领域自适应。在训练过程中,最大分类器差异(MCD: Maximum Classifier Discrepancy )被计算为源域和目标域的域输出之间的最大绝对差。通过在共享特征空间中对齐领域的特征分布,模型可以有效地适应数据集之间的变化,从而提高模型在目标领域上的性能。训练过程如图8所示。各分类预测结果如表3所示。由试验数据得到的结果的混淆矩阵如图9所示。在源域和目标域数据上的准确率分别为83.26 %和100 %。图8 .最大分类器差异( Maximum Classifier Discrepancy,MCD )自适应过程中的训练性能。图9. 使用MCD方法的混淆矩阵(a)源领域和(b)目标领域。 第三,采用自我集成的领域自适应方法用于视觉领域自适应(SEDA:Self-Ensembling for Visual Domain Adaptation)。SEDA是一种创新的方法,用于提高卷积神经网络(CNN:Convolutional Neural Networks)在视觉领域自适应任务中的性能。该方法将自我集成这种旨在提高模型泛化能力的正则化技术,与领域自适应策略相结合,以解决领域转移的挑战。模型架构包括用于特征提取的卷积层、用于预测类标签的任务特定分类层,以及用于区分源域和目标域的领域分类器组件。在训练过程中,模型被优化来最小化任务特定和领域分类损失,促进信息特征的提取同时保持对领域差异的鲁棒性。训练性能如图10所示。利用混淆矩阵(图11)和表3进行了预测结果的呈现。准确率分别为源域数据为99.55%,目标域数据为24.77%。 图10 . SEDA适应过程中的训练表现。图11. 使用SEDA方法的混淆矩阵(a)源领域和(b)目标领域。 根据表3中给出的源域和目标域的结果,可以得出关于不同方法( DAN、MCD、SEDA)在预测0,1,2和3类时的性能的几个结论。 在源域中,三种方法在预测第0、2、3类时均取得了较高的准确率,其中DAN在第0、2类达到了100 %的准确率,MCD在第0、2、3类达到了100 %的准确率。然而,在第一类问题上,SEDA的准确率相对较高,为96.92 %,而DAN和MCD的准确率较低,分别为61.53 %和40 %。总体而言,SEDA取得了99.23 %的最高总精度,其次是DAN ( 89.27 % )和MCD ( 83.26 % )。 在目标领域中,DAN继续表现良好,在所有类别中取得了高准确率。MCD也在所有类别中保持了高性能,都实现了100%的准确率。然而,与源域相比,SEDA在目标领域的性能显著下降,类别0、1、2和3的准确率分别为91.11%、0%、0%和0%。这表明SEDA可能在目标领域中泛化能力较差。总之,DAN和MCD在源领域和目标领域都表现出色,其中DAN在源领域的准确率略高,而两种方法在目标领域几乎实现了相同的准确率。 4 结论在本文中,我们介绍了一种将数字孪生技术与领域自适应相结合的框架,以增强实际离心泵中轴承缺陷诊断的准确性。通过数字孪生创建物理泵系统轴承的虚拟副本,我们实现了实时监测和模拟,提供了有价值的合成数据来源。利用领域自适应技术,我们成功地弥合了合成数据和真实世界数据之间的鸿沟,促进了知识转移,并提高了诊断模型的鲁棒性。我们使用真实世界数据进行的综合评估结果展示了所提出框架的有效性。在轴承缺陷诊断中取得的准确率展示了我们方法在革新工业应用预测性维护策略方面的潜力。数字孪生和领域自适应的无缝整合不仅改善了诊断能力,还为各种泵配置和工况提供了可扩展且可适应的解决方案。域适应网络( DAN:Domain Adaptation Network )、最大分类器差异( MCD:Maximum Classifier Discrepancy )和自集成视觉域适应( SEDA:Self-Ensembling for Visual Domain Adaptation )已被用于域适应。在评估应用于源域和目标域的领域自适应方法的结果时发现,在所有方法中,DAN始终表现出最高的性能(源域数据: 89.27 % ,目标域数据: 99.55 %。),在两个领域的所有类中都取得了显著的准确率。MCD紧随(源域数据: 83.26 % ,目标域数据: 100 %)之后,在源域表现出更低的性能,在目标域保持稍强的准确性。相比之下,SEDA在过渡到目标域时表现出(源域数据: 99.23 % ,目标域数据: 24.77 %。)的显著下降,特别是在类1,2和3中,表明其有效泛化的能力有限。总的来说,DAN是领域自适应中最健壮的方法,它在适应新的领域和在各种类中保持高精度方面显示了它的有效性。总之,将数字孪生辅助的AI框架与领域自适应相结合,对于推进工业设备领域的预测性维护具有巨大的前景。在这一方向上的进一步研究和开发可以得到更稳健和通用的解决方案,最终减少停机时间,降低维护成本,并提高离心泵和类似机械在工业环境中的整体可靠性。 编辑:赵栓栓校核:李正平、陈凯歌、曹希铭、任超、赵学功、白亮、陈少华该文资料搜集自网络,仅用作学术分享,不做商业用途,若侵权,后台联系小编进行删除来源:故障诊断与python学习

    未登录
    还没有评论
    课程
    培训
    服务
    行家
    VIP会员 学习计划 福利任务
    下载APP
    联系我们
    帮助与反馈