由于计算能力的显著提升和数据处理技术的快速发展,人工智能(AI)为解决传统超音速流动和燃烧中的强非线性和强耦合特性带来了新的工具和方法。本文章回顾了人工智能在超音速流动和燃烧领域应用的显著进展,涵盖了三个主要方面:智能湍流燃烧模拟、基于深度学习的超音速流场智能重构以及超音速发动机全流道的智能设计。近年来,湍流燃烧领域通过大量数据的应用与先进机器学习模型的实施,实现了对燃烧效率的精准预测和燃烧过程的优化。流场智能重构利用深度学习网络从有限的观测数据中精确重构整个流场的详细信息,增强了对超音速流动的分析和预测能力。超音速发动机全流道的智能设计通过集成先进的优化算法和AI技术,实现了复杂流动系统的高效设计与优化。这些进展推动了超音速流动与燃烧理论的发展,并为相关工程应用提供了创新的解决方案。最后,文章讨论了机器学习在燃烧研究中的挑战和未来应用前景。
燃烧空气动力学是将空气动力学与燃烧化学相结合的学科。它主要研究高温高速度气体湍流运动的基本规律,包括燃料混合、点火、熄火、火焰稳定性、火焰传播、燃烧不稳定性以及燃烧增强机制。该研究涉及高速气体湍流运动与大分子化学反应动力学在燃料中的相互作用。它是当代力学领域最具挑战性和前瞻性的研究方向之一,也是克服当前航天工程瓶颈和关键技术的迫切需要。此外,它为实现2030年碳达峰和2060年碳中和目标提供了重要的技术支撑。依靠吸气式高速推进系统的航行体,其能够实现更高速度和更广泛速度范围的发展,极大地依赖于超音速燃烧空气动力学的进展。 吸气式高速推进系统中的内燃过程复杂,包括特征明显非线性和时空多尺度的湍流燃烧。这些复杂性要求通过实验获得详细的流场参数,而实验设计面临巨大挑战,且成本极高。数值模拟已成为辅助吸气式高速推进系统设计的重要工具。然而,使用传统的数值模拟软件来研究超音速流动和燃烧过程极其复杂,通常需要长时间的超级计算机运算,这大大限制了先进推进系统的开发速度。随着飞机达到更高的马赫数和更广泛的速度范围,获取非定常燃烧过程中的多物理场数据变得至关重要。这就需要开发高效且高精度的数值模拟方法和平台,以支持吸气式高速推进系统的需求。现有的湍流模型包含大量经验参数,导致其在复杂的分离流动中的适用性较差,且模型结果之间存在显著差异。在燃烧模拟中,计算化学反应源项非常耗时,且缺乏既高精度又计算高效的简化燃料化学动力学机制,难以满足工程应用的需求。高效且高精度的湍流燃烧流动数值模拟,特别是具有广泛时空尺度和多个物理及化学过程的极端复杂性,已成为一个热点且具有挑战性的研究课题。 近年来,人工智能作为有效处理复杂和非定常流动数据的强大工具,受到了越来越多的关注。它能够从通过大量地面风洞实验、高精度数值模拟和有限的飞行试验获得的复杂非线性数据中提取关键特征。许多学者在流体力学领域开展了广泛的研究,利用人工智能进行湍流建模、流动特征提取、数据融合和流场重构,显示出该领域在推动技术进步和改善实际应用方面的巨大潜力。在此背景下,人工智能技术,尤其是深度学习,为探索和建模吸气式高速推进系统中的湍流燃烧机制提供了新的可能性,能够实现多物理场的精确快速预测,并优化多学科/多参数数字孪生的设计。 然而,在高速燃烧中应用人工智能也面临诸多挑战。这是因为超音速发动机涉及复杂的流体动力学和热力学过程,使得数据获取困难,实验条件严格,从而导致模型训练和验证过程复杂。此外,对计算性能和可靠性也有很高的要求。因此,高效且可靠的高质量数据获取仍然是限制人工智能性能的关键因素之一。此外,人工智能模型通常被视为“黑箱”,其决策过程难以解释,这在一定程度上限制了人工智能在超音速流动和燃烧中的应用。因此,人工智能模型的可解释性和泛化能力也成为紧迫且具有挑战性的研究课题。研究人员通过结合物理规律和超音速燃烧及流动的先验知识,构建数据驱动的神经网络模型,并利用图形处理单元(GPU)架构的高效处理能力。该方法为解决由高维组件空间、复杂燃料化学反应机制中的系统刚性以及湍流燃烧中的“多尺度问题”所引起的“维度灾难”提供了新机遇。目前,将机器学习应用于增强传统超音速湍流燃烧数值模拟,已成为在大空间域和广泛速度范围内高效、智能地设计和优化航空推进系统的有效方法。例如,主成分分析(PCA)和适当正交分解(POD)在燃烧中的应用。 因此,高速流动和燃烧呈现出多重挑战性问题,包括湍流燃烧机制、内外流动耦合、流动、固体、热量和冲击波/边界层相互作用的多物理场耦合。传统的数值模拟方法通常难以快速且准确地预测这些复杂现象,从而导致吸气式高速推进系统的设计周期较长。新兴的“人工智能 + 燃烧空气动力学 + 高性能计算”范式代表了应对这些挑战的有效途径。该平台将推动超音速飞行技术向更高效率和更低成本发展,实现对吸气式高速推进系统性能的快速评估,并为完整流场信息提供实时解决方案,从而加速设计过程。 本文其余部分的组织结构如下:第二节介绍了人工智能的基本算法和最新进展。第三节讨论了人工智能在湍流燃烧建模中的应用。第四节回顾了深度学习在低速和高速燃烧中的多物理场智能重构与预测的研究。第五节探讨了人工智能在高速推进系统优化与设计中的应用。最后,第六节给出了人工智能在超音速流动与燃烧中未来应用的展望。 人工智能(AI)是一个涉及研究、方法和技术开发,以及模拟、扩展和拓展人类智能的应用系统的技术学科。英国数学家艾伦·图灵在人工智能的发展和进步中做出了重要贡献,他最初对人工智能机器的构想和推理为人工智能领域奠定了基础。他提出的图灵测试,至今仍被用来评估和衡量机器的智能水平,是评估人工智能的标准和方法之一。本节介绍并分析当前主流的人工智能算法,包括但不限于机器学习算法、深度学习算法、强化学习算法、进化算法和主动子空间算法。
机器学习作为人工智能的基础技术,涉及通过应用机器学习算法,利用计算机从数据中自动获取知识和经验,从而实现智能。这些算法将输入映射到输出,并根据给定的数据集(训练数据集)调整参数,确保输出与预期结果(标签或目标函数)尽可能接近。主要挑战在于寻找最优的参数并评估其质量。 有监督学习(SL)是机器学习中的一种方法,利用带标签的训练数据训练模型,引导模型进行预测或分类任务。SL算法被用于构建代理模型,其中预测参数的代理模型是基于历史数据或样本数据建立的,以减少数值模拟的频率,从而降低计算周期和成本。 SL中的训练数据包括输入特征和相应的标签。模型通过学习输入特征与标签之间的关系来进行预测或分类。SL中构建代理模型的方法主要包括克里金模型(Kriging model)、径向基函数(RBFs)、支持向量机(SVMs)和神经网络。 克里金模型由南非地质学家Krige于1951年提出,后来由法国数学家Matheron发展完善。该模型包括回归部分和相关部分,其中相关部分可以视为随机高斯过程的实例,并能有效解决具有高非线性的问题。它依赖于在已知点上动态构建样本信息,具有全局和局部的统计特性,被认为是最优的线性无偏估计器,能够分析已知样本信息的趋势和动态。 克里金模型引入了一个统计假设:将未知函数视为随机过程的一个具体实现。 其中,y ̂(x)表示未知样本点的预测值。F(β,x)是对β和x的线性回归,提供全局近似。β表示回归常数,记作β=[β^1,β^2,…,β^p ]^T。p表示基函数,x表示输入样本参数。Z(x)表示随机过程。在此过程中,通常使用高斯相关函数R来表示样本点之间的相关性。相关函数R的空间距离函数可以表示为:在公式(2)中,θ_h=[θ_1,θ_2,…,θ_k ]是一个未知参数,表示模型的超参数。对于一维变量,任意两个样本点之间的相关性可以表示为:径向基函数(RBF)模型通过将径向函数作为基本函数进行线性叠加构建,能够很好地平衡计算效率和非线性近似精度。它在实际工程优化中得到广泛应用,涵盖了航空航天、汽车、电子和材料工程等多个领域。 径向函数利用预测点与样本点之间的欧几里得距离作为自变量,样本点作为中心。通过欧几里得距离,RBF将多维问题转化为一维(1D)问题。通常,任何函数都可以表示为一组基本函数的加权和,从而实现从输入样本到基本函数输出的非线性映射。其基础形式如下: 其中,ω_i (i=1,2,I,n_s )是线性叠加的权重系数;H_i (r)ω_i是径向函数;n_s是样本点的数量。RBF模型常用于解决高成本的优化问题。Gutmann-RBF利用RBF模型开发了一个近似模型,通过最小化一个辅助函数,该函数考虑了凹性和凸性的度量,从而生成具有精确评估的解决方案。支持向量机(SVM)是一种高效的机器学习算法,擅长处理小样本数据集和高维特征空间。它们通常用于模式分类和回归问题,并被认为是最常用的算法之一。其核心方法是识别最优分类面,该面能够区分不同类别的样本,并最大化到各类别的距离(即边距),从而形成优化目标。拉格朗日乘数法用于确定定义最大边距的样本点,这些样本点被称为支持向量。 支持向量机(SVM)的决策函数计算输入样本与超平面之间的距离,以进行分类预测,并利用核函数来确定样本之间的相似度。符号函数决定了样本的最终类别。为了应对SVM的收敛速度较慢和训练时间较长的问题,研究人员致力于提高训练速度,尽管可能会略微降低准确性,并开发了多种改进基本SVM的算法。Saunders等人提出了核岭回归版本。Suykens和Vandewalle将这一思想扩展到分类问题,并引入了最小二乘支持向量机(LS-SVM),通过用等式约束代替不等式约束,将问题转化为一组线性方程,从而明确地表示解决方案。Gendeel等人引入了一种利用变分模态分解和LS-SVM进行风电场确定性和概率区间预测的方法。 神经网络(NNs)由人工神经元和连接权重组成,已被用来模拟生物神经系统的功能,以处理和学习复杂的输入输出关系。该类神经网络包括多种类型,如人工神经网络(ANNs)、径向基函数神经网络(RBFNNs)、卷积神经网络(CNNs)、递归神经网络、生成对抗网络(GANs)以及图神经网络(GNNs)。 人工神经网络(ANNs)围绕一个基本单元——神经元组织,依据特定规则将多个神经元组合在一起,形成最基本的人工神经网络。人工神经网络最初的构建目标是模拟生物大脑的结构。尽管未完全实现这一目标,人工神经网络在多个领域得到了广泛应用,包括模式识别、决策优化和自适应控制。 其中,x_i (i=1,2,…n)是输入信号;θ是神经元的偏置项;ω_i (i=1,2,…n)是输入x_i与神经元之间的连接权重。 人工神经网络(ANN)的基本结构如图 2 所示,主要由三个部分组成:输入层、隐藏层和输出层。输入层和输出层的神经元数量取决于输入和输出的大小,而隐藏层的数量和神经元的数量由用户根据经验定义(当隐藏层数量较多时,ANN 变为深度神经网络(DNN))。为了增强其非线性拟合能力,隐藏层中的神经元还与激活函数相连接。 其中,Y^k是第k层的输出;W^k和b^k分别是第k层的网络权重系数和偏置;f^k是第k层的激活函数。 神经网络的训练过程可以分为三个步骤:前向传播、损失函数计算和反向传播。在输出层中,通过前向传播获得的预测输出值Y^pred与实际值Y^actual之间的误差用于衡量预测效果。误差值依赖于损失函数,一旦损失函数计算出来,就会进行反向传播。最常用的损失函数是均方根误差,其定义如下: 其中,δ_i=y_i^pred-y_i^actual和n_K是输出的数量。在反向传播过程中,使用梯度下降算法来更新参数。 在无监督学习(UL)中,模型的训练不依赖于明确的答案或标签。这种方法依赖于系统自主发现输入数据中的模式和结构的能力。无监督学习通常用于识别数据集中的自然分组或聚类、检测异常、发现关联规则以及降维。无监督学习的本质在于探索未标记数据的潜在属性,从中获得模式或规律,并预测未来的数据。 最常见的无监督学习形式是聚类分析,其中物理或抽象数据集 合被分类为包含相似数据项的组。传统的聚类方法包括划分法、层次法、基于密度的方法、图论方法和基于网络的方法。在这些方法中,划分法因其速度快且简单而受到青睐,而K-means聚类算法是应用最广泛的算法。 K-means算法有两个缺点:对初始值的敏感性以及容易陷入局部最优解。近年来,仿生智能优化算法因其结构简单且易于实现,越来越多地被应用于解决复杂问题的最优解。在传统K-means算法中结合这些算法的优势,可以提高其全局搜索能力,使其不容易陷入局部最优解。Tahereh等人提出了一种基于萤火虫优化的加权K-means算法,利用萤火虫优化算法的强大全局搜索能力和稳健的收敛性,选择K-means算法的初始聚类中心。该算法有效地解决了传统K-means算法中初始聚类中心选择问题及噪声点对聚类结果的影响,提升了聚类性能。 自2000年以来,流形学习方法逐渐流行,成为无监督学习中的一个重要课题。流形学习能够从高维采样数据中揭示低维流形结构,并计算从高维空间到低维嵌入的对应映射,从而实现数据降维,进一步降低计算成本。此外,流形学习比传统的降维方法更有效地捕捉数据的内在本质,有助于更深入地理解和处理数据。Sam等人提出了局部线性嵌入(LLE)方法,该方法成为流形学习方法的经典代表之一。这个类别还包括拉普拉斯特征映射(LEs)。 尽管LLE算法简单且计算复杂度低,但它对噪声敏感,且确定局部邻域的范围存在挑战。后续的研究提出了改进方法,如增量学习和自监督学习(SL)。LE和LLE的相似之处在于它们具有相同的超参数;两者都求解稀疏矩阵的广义特征值,并且都是局部非线性嵌入技术。然而,这两种方法在权重选择上有所不同,LE的方法较为简单和直接,因为它通过直接设置权重而不是求解线性方程组来进行操作。LE确保在原始空间中彼此接近的点在降维后仍然接近,从而保持局部属性,而对于在流形上相距较远的点,LE能够在低维空间中放大它们之间的距离。 动态模态分解(DMD)是一种数据分析技术,用于分析和提取动态系统中的动态模态和振荡特征。它是一种基于数据的无模型方法,不需要事先详细的系统建模,因此在许多实际应用中具有显著的灵活性。 DMD由Schmid通过对动态系统进行Koopman分析发展而来,并于2009年首次应用于流体力学,用于瞬态流动的稳定性分析。DMD的基本思想是将时间序列数据转换为一组空间模式,并捕捉这些模式之间的动态演化。DMD可以依赖频率信息对流场进行分解,这意味着每个DMD模态都有一个独特的频率值。这些模态按不同频率下的振荡能量降序排列,这与POD方法明显不同,因为POD是根据能量的大小对各个模态进行排序的。 DMD和POD是两种数据分析技术,可以直观地展示非稳态流动随时间和空间的演化。这两种方法广泛应用于提高非稳态流场动力学分析效率,以及进行非稳态流场模态分解、气动建模或阶次约简。POD的主要优点在于从数据中提取空间模式。它使用奇异值分解(SVD)来寻找正交基,以最大化捕获数据的能量,因此更适合分析静态空间结构。POD通常用于流场的阶次约简和重构,以及流场涡旋结构的识别。DMD方法的本质是将流动演化视为一个线性动态过程,通过对整个过程的流场快照进行特征分析,得到表示流场信息的低阶模态及其对应的特征值。其最大特点是,DMD获得的模态具有单一频率和增长率,因此在分析动态线性和周期性流动时具有很大优势。与POD方法相比,DMD更加注重动态特性,适用于处理时变系统,能够揭示系统的频率和增长率,常用于分析动态行为,如湍流发展、流场预测和控制。 对于DMD,Joshua提出了带控制的动态模态分解(DMDc),以解决高维系统控制问题。DMD与非线性算子理论紧密相关,通过数据中发现时空一致的模态;然而,它无法从具有外部强迫的复杂系统中产生准确的降维模型。DMDc继承了DMD的优点,并为复杂驱动系统提供了准确的输入-输出模型。该方法可以应用于来自各种来源的数据,包括历史数据、实验数据和黑箱仿真数据。 Huang提出了一种结合DMD和深度学习的流场与温度场预测方法,以探索更精确的流场预测方法。通过合理调整网络结构,开发了一种卷积长短期记忆(LSTM)神经网络模型。流场的主要特征通过模态分解和重构获得,并利用神经网络强大的时空特征学习能力,实现流场预测。 在强化学习(RL)中,智能体可以在复杂和不确定的环境中最大化它所获得的奖励。通过解读环境对其行为的响应,智能体被引导向更好的策略,以实现最大利益。这个通过交互进行学习的过程在RL中至关重要。RL算法分为两种类型:基于值函数的方法和基于策略梯度的方法。基于值函数的方法侧重于在每个状态下做出最大化奖励的决策,而基于策略梯度的方法则优先考虑根据整体系统状态来选择行动。 RL的基础概念来源于Bellman提出的马尔可夫决策过程。最初,RL应用仅限于那些特征可以手动定义的领域,且状态空间是低维且完全可观察的。然而,2015年,Mnih等人通过训练深度神经网络(DNN)开发了一种新的AI智能体,创造了基于Q学习算法的深度Q网络(DQN)。DQN是强化学习的开创性工作,是传统Q学习与DNN相结合的产物。与通过Q学习更新Q表格不同,DQN使用神经网络来拟合Q函数,并通过梯度下降进行更新。DQN不仅仅是简单地将两者结合,它有两个主要改进。第一个是引入了经验池。在训练过程中,DQN将智能体在环境中获得的样本存储在经验池中,并在每个时间步随机回放一批样本来训练神经网络。此改进不仅能够打破样本之间的相关性,还通过允许样本反复回放来提高利用效率。第二个改进是训练一个Q网络并引入目标Q网络来处理时序差分(TD)偏差。由Ng和Russell提出的逆强化学习(IRL)算法,侧重于识别有效且可靠的奖励函数。为了解决模型在规划能力上的不足,特别是其考虑未来奖励的能力,Tamar等人提出了值迭代网络(VIN)。该模型通过卷积将值迭代规划算法整合到DNN中,提供了比DQN更强的泛化能力。然而,DQN不适用于具有无限可能性的连续动作场景,因为它评估所有可能的动作。 强化学习(RL)在气动学中也有广泛的应用。例如,Liu等人提出了一种RL控制方法,用于可变几何进气口的吸气式航空航天器,这些航空航天器必须应对外部干扰和各种不确定性。同样,Wang等人使用深度神经网络(DNN)和RL开发了一种智能控制方法,用于管理吸气式航空航天器纵向控制中的飞行路径和攻角约束,并取得了令人印象深刻的结果。 尽管强化学习(RL)取得了迅速进展,但仍然存在一些挑战,特别是在流体力学中,获取复杂场景并为特定奖励函数设定仍然困难。Ng和Russell提出了一种逆强化学习(IRL)算法,用于推导高效且可靠的奖励函数,从而解决了模型缺乏规划能力的问题。Tamar等人通过卷积将值迭代规划算法嵌入到深度神经网络(DNN)中,显著增强了模型的泛化能力。 活跃子空间(AS)在识别输入参数空间中关键方向方面起着至关重要的作用。它们构建一个活跃子空间,其中输出在平均值上变化最大。活跃子空间有效地降低了输入空间的维度,促进了在该子空间内进行设计问题的高效探索和优化。此外,活跃子空间中的全局敏感性信息量化了输入及其相互作用对输出的重要性,揭示了系统的主要控制机制。与依赖特征值大小来创建低维有效子空间的主成分分析(PCA)不同,活跃子空间通过基于梯度的部分协方差(特征向量)来近似系统对多维输入变量的响应。相较之下,PCA则侧重于特征值大小对协方差的影响。 低维活跃子空间通过矩阵C的特征值分解识别,如下所示: 其中,C是梯度向量的无中心协方差;是给定m维输入的概率分布;是对称且半正定的,因此可以进行特征值分解:其中, ;λ_1≥⋯≥λ_m≥0;W是一个正交矩阵,W=[ω_1…ω_m ];ω_i=[ω_i1…ω_im ]^T (i=1,…,m)。特征值λ_i表示如果f(x)沿着方向x变化,ω_i平均变化的程度。如果第n个特征值与第(n+1)个特征值之间存在较大差距(λ_n,λ_(n+1)),则对应的前n个特征向量将是最具影响力的方向。此外,忽略其余m-n个特征向量的影响是安全的。空间S=[ω_1…ω_n ]是一个低维活跃子空间。活跃子空间中规定的性能度量Q的一个良好近似如下:此外,忽略其余m-n个特征向量的影响是安全的。空间是一个低维活跃子空间。活跃子空间中规定的性能度量Q的一个良好近似如下:因此,如果其余特征值的总和很小,则可以忽略其余特征向量的影响。 对于不同的对象,C的特征值和特征向量是不同的。在少数情况下,对应的特征值和特征向量可以通过f(x)直接分解,但大多数问题需要通过数值计算来获得它们。基于已知的M随机样本,得到相应的梯度值,并且公式(12)可以转化为以下形式: 如果梯度项可以获得,则可以直接进行特征值分解。如果上述梯度项不可用,则可以采用有限差分法或替代模型来解决问题。 AS方法相对简单且实用。传统的降维方法,如PCA,直接在样本上进行无监督学习(UL)。而AS降维则通过线性空间变换,推导出高维空间中高敏感度的方向,从而实现降维,同时考虑了样本的标签。然而,在强非线性工程问题中,通常需要大量样本。在某些情况下,由于现有技术的限制,无法进行某些实验测量。在这种情况下,采用在其他条件下获得的实验数据来增强模型对目标条件的预测变得必要。Lin提出了一种基于AS的主动相似性分析方法,作为一种实验设计方法。该方法允许在强约束效应下预先设计实验目标或条件,并能够在潜在实验条件下进行分类。Constantine采用了使用AS的新方法,表征输入不确定性对冲压发动机性能的影响。Lin提出了基于AS的替代模型(ASSM),它缓解了与燃烧动力学模型的全局灵敏度分析相关的长时间计算以及局部灵敏度筛选中的不准确性。ASSM在性能灵敏度指数的计算上比基于局部灵敏度的替代模型更可靠,表现出更优的性能。在湍流燃烧模拟中,高维动态参数的响应面计算非常具有挑战性。Ji等人利用AS方法降低了参数空间的维度,展示了AS在量化湍流燃烧模拟中的不确定性方面的能力。关于氢气超声速火焰在腔体中的稳定化与优化问题,Wei等人应用AS方法量化了不同燃料喷射速率和腔体几何参数下流动与火焰稳定性之间的内在联系,表明AS方法在涉及多目标的燃烧室设计中具有优势。 卷积神经网络(CNNs)是深度学习中的主要方法之一,近年来在流场重构中得到了广泛应用。CNNs发展出了多个经典架构,如视觉几何组(VGG)、残差网络(ResNet)、MobileNet、ShuffleNet和Xception等。这些网络在计算机视觉领域,特别是在图像识别方面,展现出了逐步提高的性能。尽管它们的复杂性和变种不断增加,这些网络本质上仍由一些基本元素构成,包括卷积、激活函数、池化、全连接层和残差结构。深度学习本质上是一个参数优化过程。网络通过建立一个损失函数作为收敛标准,持续学习所提供训练数据的特征。经过不断优化,模型能够解决实际的工程问题,如预测和分类等。 普通卷积主要涉及矩阵运算,其中卷积层和非线性函数通过卷积操作产生前一层特征的映射特征图: 这种稀疏性使得稀疏模型能够更有效地挖掘相关特征并拟合训练数据。在每次卷积后,通过在特征图周围填充零来防止丢失边缘信息。 “转置卷积”首先在元素之间进行填充,然后在输入特征图周围进行填充,并且对卷积核参数进行垂直和水平翻转;最终,它作为一种常规卷积进行操作,如图 3 所示。 输入特征图和输出特征图的尺寸分别为 2 × 2 和 4 × 4。卷积核与输入特征图进行逐元素相乘。 转置卷积并非卷积的逆操作,而是用于上采样。一个 2 × 2 的特征图,经过 3 × 3 的卷积核处理后,得到一个 4 × 4 的输出特征图。批量归一化用于缓解内部协变量偏移问题并加速训练速度,它将网络输入在层中的每一维度归一化为标准正态分布,如公式 (14) 所示: 卷积和激活函数主要将原始数据映射到隐藏层特征空间进行特征提取。全连接层中的每个节点与前一层的所有节点相连接,整合在卷积过程中确定的局部判别信息,并将学习到的分布式特征表示映射到样本标签空间。 注意力机制,也称为神经网络中的“关注焦点”,使神经网络能够集中注意力于一部分输入数据。当输入信息过载时,模型的计算变得越来越复杂。引入注意力机制可以减少模型处理的信息量,使其专注于神经网络认为更重要的数据。此外,加入注意力机制可以有效缓解模型复杂性与表达能力之间的矛盾。图4展示了卷积块注意力机制的结构图。 Pooling相当于对图像进行下采样,其中相邻输出位置的整体统计特征用于替代该位置的网络输出。Pooling有效地减少了参数数量和网络的复杂性。常用的两种Pooling方法是最大池化(max pooling)和平均池化(average pooling),如图5所示。 物理信息神经网络(PINNs)是通过偏微分方程(PDEs)将数学物理模型方程编码到神经网络中的一种网络模型,提供了传统神经网络模型中所没有的先验知识和可解释性。PINNs通过训练神经网络以最小化损失函数来逼近PDE解,该损失函数包括表示初始条件和边界条件的项,覆盖时空领域内选定点(协同点)的PDE残差项。从概念上看,PINNs可以视为监督学习和无监督学习的结合。PINN中的神经网络建立了输入和输出样本之间的非线性特征映射关系,需要通过样本标签和预测结果进行误差更新迭代。在PINN的PDE求解方面,直接求解控制方程的问题转化为损失函数优化问题,以确定PDE解。此外,控制方程中的残差项增强了损失函数,作为惩罚项限制了可接受解的空间。与纯数据驱动的深度学习模型相比,PINNs在训练过程中施加了物理信息约束,从而可以实现更精确的插值和外推,同时使分析和解释更加简单,并且所需的训练样本更少。PINNs能够学习训练数据样本的分布模式,正如传统神经网络模型所观察到的那样,也能学习由数学方程描述的物理定律。PINN模型的结构图如图6所示。 该模型由两部分组成:“NN”和“PDE”。“NN”部分用于建立输入和输出之间的链式关系,构建PDE的微分计算模型,并计算预测结果与标签之间的误差,以获得MSE{u,BC,IC}。“PDE”部分表示输入和输出之间的物理信息关系。它对神经网络的预测进行偏微分方程计算,从而约束这些预测。此时,PDE的偏差均方残差(Mean Squared Residual of the Residuals,MSER和MSE{u,BC,IC}一起进行迭代优化。 大量研究已证明将物理信息神经网络(PINNs)应用于燃烧流动的合理性和有效性。目前,PINNs仍在快速发展。PINNs的改进算法进一步增强了物理机制和数据驱动方法的有效结合。例如,为了解决“刚性”偏微分方程(PDE)解中的顽固点,这些点迫使神经网络在自适应过程中进行精确拟合,McClenny提出了一种名为SA-PINN的新方法,其中自适应权重完全可训练,并个别应用于每个训练点。这种方法使神经网络能够自主确定哪些区域的解较为困难,并迫使模型集中关注这些区域。实验结果表明,SA-PINN在L2误差方面优于其他PINN算法,同时还使用了更少的训练周期。由于随着网格分辨率的提高,PINNs的计算和内存成本呈指数增长,Cho提出了一种称为可分离PINN(SPINN)的网络架构,该架构通过逐轴计算和逐点处理,有效缓解了维度诅咒,减少了网络前向传播的次数。 因此,基于超声速流动和热化学反应机制的物理模型的全面开发,以及有效的自适应优化策略的设计,至关重要。这些努力对于增强物理信息神经网络(PINNs)的鲁棒性和通用性至关重要,从而实现对超声速燃烧流动的高精度、高泛化能力的预测,并为发动机的运行状态监测提供可靠的信息。基于前述关于人工智能算法(如机器学习、深度学习和强化学习)的描述,人工智能算法及其标志性算法的相关内容见表1。 传统的多目标优化处理方法主要包括加权和法、约束法、目标规划、距离函数法和最小-最大 法。这些方法通常通过将多目标问题转化为单目标问题来进行求解。然而,在面对非线性和高维度等复杂情况时,这些传统策略往往难以获得令人满意的优化结果。 近年来,一种新型智能算法——群体智能算法应运而生,其灵感来源于仿生学原理。其中,以粒子群优化(PSO)、遗传算法(GA)等为代表的启发式算法,以及一系列仿生算法,在解决多目标问题方面表现出显著优势。这些算法的成功应用进一步拓展了多目标优化问题的求解选项和能力。本研究主要介绍经典的PSO算法和GA算法。 粒子群优化算法(PSO)基于模拟鸟群行为的概念,具有局部搜索效率高、收敛速度快和实现简单的特点。该算法已广泛应用于函数优化、模式分类等各类工程领域。 粒子群优化算法(PSO)的过程可以描述如下:设想粒子在一个n维空间中搜索,其中一个种群包含m个粒子。每个粒子的位置代表问题的一个潜在解。粒子通过不断调整其位置来寻找新的解。每个粒子能够记住自身找到的最佳解,记为,以及整个种群经历过的最佳位置,即当前发现的最优解,记为。此外,每个粒子还具有一个速度,表示为 。在找到这两个最优解后,每个粒子通过公式(15)和(16)更新其速度和位置。 该公式表示第i个粒子在第d维中第t+1次迭代的速度。 Hoang等人提出了一种基于差分粒子群优化的创新SVM分类器DPSO-SVM。他们通过多个基准函数的实验,证明了所提DPSO-SVM算法在提高分类器性能方面的优越性。Liao等人引入了一种分布式粒子群优化算法,并通过将其应用于照明控制问题进行验证。结果表明,该改进算法具有高效性和适合并行化的特点。在不同参数设置下,同一优化问题的执行结果会有所不同。基于构建块假设,Li等人提出了两种PSO算法的变体:固定相位PSO算法和动态相位PSO算法。这些新变体通过解决单目标数值优化问题的基准函数测试,验证了其鲁棒性。 遗传算法(GA)由Holland教授于1975年首次提出,是演化算法的先驱之一,也是最基本的演化算法形式之一。在遗传算法中,种群中的每个个体代表解空间中的一个可行解。通过模拟生物进化过程,执行遗传、变异、交叉和复 制等操作,在解空间中搜索最优解。遗传算法具有自组织性、自适应性和智能性。它直接处理参数编码集 合,而非问题参数本身,并在搜索过程中利用目标函数的值作为评估信息。遗传算法概念简单,操作相对便捷。 非支配排序遗传算法-II(NSGA-II)是一种基于遗传算法的多目标演化算法,其主要改进包括以下几点:首先,NSGA-II 引入了一种快速非支配排序算法,降低了计算复杂度,并通过合并父代和子代种群的方式保留所有优秀个体。其次,NSGA-II 采用精英策略,确保种群中的部分优良个体在演化过程中不会被淘汰,从而提高优化结果的精度。第三,NSGA-II 引入了拥挤距离和拥挤距离比较算子,克服了NSGA中需要手动指定共享参数的局限性,为种群中个体间的比较提供了标准。这使得接近帕累托前沿的个体能够在整个帕累托域内均匀扩展,保证了种群的多样性。NSGA-II算法中新父代选择的过程如图7所示。 文献中对智能群体算法的更多细节和评论如表2所示。群体智能算法通常缺乏强有力的数学理论支持,因此需要进一步的理论研究。目前的大部分研究集中于这些算法的稳定性、收敛性以及收敛速度。此外,尽管许多学者对这些算法进行了改进,并成功应用于各个领域,但在解决诸如离散、多目标、动态以及大规模优化等复杂优化问题时,仍然存在一些具体的挑战。 现有的湍流数值模拟方法可以分为三类:直接数值模拟(DNS)、大涡模拟(LES)、脱体涡模拟(DES)和雷诺平均纳维–斯托克斯(RANS)模拟。由于DNS和LES涉及到复杂的计算和高昂的计算成本,它们不适合在工程应用中使用。DES和RANS模拟已经成为工程应用中的研究热点,例如气动设计和优化,通常侧重于平均流量量。传统的RANS模型主要依赖于半经验的专业知识来提高数值模拟的准确性。然而,人工智能的发展为提高湍流模型的精度带来了新的机遇。在实际操作条件下,超音速发动机内部的燃烧过程非常复杂,表现出高度非线性的湍流燃烧现象。对发动机内部流场进行高精度的数值模拟对优化发动机设计和提升发动机效率至关重要。然而,由于高精度化学反应模型的复杂性和巨大的计算成本(占数值模拟总计算成本的85%以上),进行高精度、大规模、全尺寸的发动机燃烧数值模拟仍然在工程应用中面临巨大的挑战。因此,开发适用于超音速流动等复杂条件的化学反应动力学模型和数值模拟方法具有重要的实际意义。
当前,限制超音速飞机/发动机内部和外部耦合数值模拟的速度和精度的瓶颈,主要来源于湍流和燃烧反应动力学模型的强非线性和时空多尺度特性。新兴的“AI + 湍流燃烧”方法,通过数据挖掘形成,正成为航空航天工业中最具活力的研究领域之一。该方法包括用于湍流流动或燃烧反应动力学的高保真代理模型和湍流燃烧数值模拟加速方法。考虑到当前的研究现状,人工智能在湍流燃烧建模中的研究可以主要从以下四个方面进行总结和描述:数据驱动的湍流建模、化学反应动力学建模、计算加速,以及机器学习在湍流燃烧智能建模中的应用。 湍流仍然是物理学中未解决的问题。湍流的性质、支配其演化的物理规律以及如何更好地在工程计算中解决湍流效应,一直是研究的热点话题。随着计算机硬件的快速发展,数值模拟已成为预测工程流体动力学的主要方法。在进行RANS模拟时,选择湍流模型以确保流动控制方程(N–S方程)的封闭是必要的。此外,湍流模型的作用是提供一个附加方程,用于封闭N–S方程中的雷诺应力项。附加方程的主要目的是建立时间平均流动、空间位置(通常是壁面距离)和雷诺应力张量或湍流涡流粘度之间的数学关系。由于现有的雷诺平均湍流模型在分离流动中的适用性较低,且不同模型的结果存在差异,许多新的湍流模型应运而生,旨在封闭并改进N–S方程。近年来,随着人工智能技术的发展,一股新的机器学习浪潮已被应用于增强RANS模拟中的湍流建模。 机器学习技术已广泛应用于建模各种流动情况,如以翼型表示的外流和以平板和超燃冲压发动机表示的内流。机器学习不仅限于构建流场变量之间的复杂关系映射;它还可以直接用于计算雷诺应力。机器学习主要用于三个方面:湍流模型不确定性的分析、湍流模型的优化与改进,以及直接替代湍流模型。 目前,大多数RANS模型假设涡流粘度。从20世纪到现在,湍流模型主要包括Spalart-Allmaras(SA)、k-ε、k-ω和k-ω剪切应力传输(SST)等。还有一系列其他的、通常经过改进的湍流模型,其准确性和闭合系数高度依赖于具体问题。每个湍流模型的开发者通过简单流动数据对模型参数进行标定。开发者推荐的闭合系数值通常称为名义值。目前没有证据表明,名义值在所有类型的流动中表现良好。因此,针对特定类型流动调整闭合系数值以提高数值模拟的准确性已成为当前的研究热点。敏感性分析、概率分析和贝叶斯方法被用来量化来自模型参数和模型形式的不确定性导致的计算结果误差或波动。 Schaefer et al.分析了在 RAE 2822 超音速翼型的湍流模型中,闭合系数的不确定性定量化问题,以识别外流场中的湍流模型参数。他们确定了每个湍流模型的闭合系数,从而减少了输出的不确定性。来自北京航空航天大学的 Yan 团队近年来一直积极研究内流湍流建模。例如,Li 等人使用贝叶斯框架重新校准了三种湍流模型的参数。与名义结果的显著偏差不同,两种 k-ω 模型经过修正的压缩比非常接近,并且优于原始模型。本研究的评估结果已证明适用于其他类似流动。Tang 等人分析了压缩角配置中 SST 湍流模型参数的灵敏度。通过调整参数增强了近壁区域的湍流,增加了湍流粘度。在贝叶斯校准之后,SST 湍流模型对不利压力梯度流的预测性能得到了改善。校准前后结果的对比如图 8 所示。然而,SST 湍流模型通过修改参数无法模拟冲击波/边界层相互作用(SWBLI)的固有震荡,且分离区域的壁面压力预测仍然过高。同一研究小组还发布了其他关于量化湍流模型参数不确定性的研究。值得注意的是,Kou 和 Zhang通过组织控制理论、数据科学和机器学习等先进数学方法,总结了三种典型的数据驱动方法(系统辨识、特征提取和数据融合)。他们关注于提高数据驱动模型的准确性、稳定性和泛化能力的主要方法,为数据驱动方法与气动建模的紧密结合提供了新的研究视角。 图 8. 在不同案例条件下湍流模型修正后得到的摩擦系数。 (a) 案例1的来流马赫数 Ma = 2.87,边界层厚度 δ = 26 mm,压缩角 8°;
(b) 案例2的来流马赫数 Ma = 2.85,边界层厚度 δ = 26 mm,压缩角 16°;
(c) 案例3的来流马赫数 Ma = 2.85,边界层厚度 δ = 25 mm,压缩角 20°;
(d) 案例4的来流马赫数 Ma = 2.84,边界层厚度 δ = 23 mm,压缩角 24°;
(e) 案例5的来流马赫数 Ma = 2.9,激波发生器角度 13°。 Cheung等人应用贝叶斯不确定性量化方法来校准复杂的数学模型并预测感兴趣的量;在不可压边界层流动的背景下,他们分析了SA湍流模型的参数。Zhang和Song提出了一种高效的贝叶斯不确定性量化方法,使用Cheung的量化不确定性框架。他们研究了该方法在简单数学函数和复杂流体动力学模型(k-ω-γ过渡模型)中的应用,表明其有效性和准确性。所提出的贝叶斯方法被应用于SST湍流模型,用于平板上的超音速流动,验证了其在描述流动场景和模型性能方面的能力。Di Stefano等人结合常用的湍流模型闭合系数,对冲压喷气发动机中的隔离器流场进行了不确定性分析;他们识别出了在每个湍流模型解中对不确定性贡献最大的闭合系数集 合,旨在减少数值设计中的不确定性。 在贝叶斯理论中,马尔科夫链蒙特卡洛(MCMC)方法常用于获取后验样本。然而,该方法需要较高的计算成本,并且在高维采样情境中常常表现出较慢的收敛速度。在SA和SST湍流模型的参数校准过程中,Hosder等人使用了MCMC方法,要求样本范围为O(105~106)。Sargsyan等人指出,后验分布中最大后验值(MAP)受到较大关注,该值可以通过标准优化技术进行优化,而无需使用MCMC。 Yang 等人集中研究了超音速腔体和空心圆柱体,采用结合非侵入性多项式混沌方法、贝叶斯理论和粒子群优化(PSO)算法的校准框架来重新校准SST湍流模型的闭合系数。结果表明,使用该框架进行校准后,SST湍流模型预测的壁面压力的最大相对误差从29.71%降至9.00%,平均相对误差从9.86%降至3.67%。校准的效率通过三项标准进行了系统评估,MAP参数值在所有指标上均超过了名义值。此外,还研究了流场的速度和密度分布。随后,同样的校准方法应用于超音速空心圆柱体和基准湍流模型,得到相似的校准结果,从而确认了该方法的普适性。此外,Gaitonde 和 Adler对不同边界层厚度下的压缩拐角湍流模型参数进行了校准,在Ma = 2.85和Ma = 2.9的自由流条件下,验证了校准参数的通用性和适用性。结果表明,针对大角度(24°)压缩拐角校准的参数可应用于较小角度(20°、16°和8°)压缩拐角,在相同条件下,预测的壁面压力、皮肤摩擦系数和速度分布与实验结果紧密吻合。图9表明,将大角度条件下获得的参数应用于Ma = 2.9条件下,不同入流边界层厚度时,壁面压力和速度分布始终与实验数据高度吻合,验证了湍流模型参数在窄范围马赫数下的适用性。 图9. 24°压缩拐角下SST湍流模型参数校准结果。 (a) 校正前后壁面压力结果比较,δ₀ = 21.5 mm;
(b) 校正前后摩擦系数结果比较;
(c) 校正后的速度剖面结果比较,位于点1(x/δ0= -2.18);
(d) 校正后的速度剖面结果比较,位于点4(x/δ0= -0.028)。 在湍流模型参数不确定性量化与分析中,内外流场的实验证据表明,基于机器学习的参数不确定性分析与量化能够有效地校准湍流模型参数,使计算结果与实验数据一致,从而提高计算精度。然而,当前仍需进一步研究,以克服预测各种激波与边界层干扰问题以及分离区预测的挑战。深入理解这些问题的内在机制、将机器学习与流动特性无缝结合,并优化校准方法,是提高数值模拟精度的关键步骤。 由于结构和参数的不确定性,RANS模型的准确性和适用性受到不同限制,尤其是在涉及激波与边界层相互作用(SWBLI)或分离流的流动情况中,RANS模型的计算结果常常表现出显著的偏差和不准确性。因此,研究者们致力于通过高分辨率数据减少RANS模型计算中的偏差,或使其适用于分离流动情况。通常,提升RANS模型的机器学习方法主要有两种途径:一种是通过与修正系数相乘或添加源项来改变模型的控制方程的形式;另一种是基于RANS模型构造偏差函数,再将RANS模型计算结果与偏差函数叠加,以获得最终的Reynolds应力值。 基于涡粘性假设,第一种方法主要针对一方程或二方程的RANS模型。修正系数或附加源项通常是从实验结果或高分辨率数据中推导出来的。这些输出结果随后被用来构建与求解器集成的数据驱动模型。Singh等人对SA模型中的生产项进行了修改,改变了其控制方程,使其能够应用于分离流计算,并实现了与实验数据更加一致的结果。SA模型的原始方程如下: 引入空间变量作为生产项的修正系数β(x),方程(17)变为:通过使用伴随方法优化RANS模型的结果与实验数据,以反演场并获得β(x),然后通过机器学习方法建立流场变量与β(x)之间的映射,增强了模型的可转移性并确保了原始模型的收敛性。这种方法可以有针对性地改善原始模型的计算结果。 第二种方法并不改变控制方程的形式,而是修正模型计算所得的结果。Xiao等人和Wang等人通过模拟RANS模型计算结果与高分辨率数据之间的差异,来修正原始模型的计算结果。利用数据驱动方法,研究人员强调了Reynolds应力的物理约束,并引入了“物理信息驱动的机器学习”概念,其框架如图10所示。当训练模型与预测模型一致时,这种方法显著增强了RANS模型的计算结果。然而,即使是对于相似的流动现象,如分离流,在几何变化区域修正模型也可能会降低原始RANS模型的计算结果。 图10. 提出的物理信息驱动的机器学习框架用于预测湍流建模。 最近,反向建模框架为湍流建模提供了一种新方法,解决了传统RANS方法在预测分离流中的局限性。Heo等人采用了数据驱动方法、场反演和机器学习(FIML)来增强湍流模型。FIML过程的总结如图11所示。通过优化和修正SA模型,然后通过机器学习过程将模型修正映射到局部流动特征上,该研究表明,与基准RANS模型相比,改进后的RANS模型在分离区域减少了涡粘度。这一减少有助于预测超音速流的扩展以及涡区的大小。Parish和Duraisamy利用反向建模技术优化了RANS模型,使其能够更好地预测分离流[156]。机器学习重新表达了优化(或修正)后的RANS模型作为局部流动特征。FIML方法在预测分离流(包括失速翼型)时得到了改进。 Singh等人将流场反演与贝叶斯方法相结合,量化了RANS模型的不确定性。在没有高保真流动数据的情况下,Xiao等人利用稀疏数据反演雷诺应力差异,并增强了对感兴趣量的预测能力,超出了已同化数据的范围。Kato等人通过将计算流体动力学(CFD)与实验流体动力学相结合,采用集成变换卡尔曼滤波方法研究机翼流动。Dow和Wang通过伴随方法推导了“真实”的湍流粘度场。其他相关研究可见于文献中。Tang等人基于Ströfer开发的反演框架,如图12所示,使用SST模型对SWBLI流动中的雷诺应力差异进行了反演。该方法克服了湍流粘度假设的一些局限性,并提高了湍流模型对SWBLI的预测能力。 这些研究共同表明,将反演框架与机器学习相结合为有效的湍流建模引入了新的思路和方法。未来湍流建模中的场反演方法将致力于提高计算效率和模拟精度。机器学习算法,尤其是深度学习,预计将被广泛应用于自动优化模型参数和结构。同时,数据同化技术将越来越多地与观测数据和模拟结果结合,提高模型的实时预测能力。利用高性能计算资源将加速反演过程并降低成本。此外,多尺度建模和不确定性量化将成为重要的研究方向,旨在提供对湍流行为更全面的理解和预测。 将湍流的大数据与人工智能相结合,仍然是湍流研究中的一个活跃领域。与湍流模型的优化和修正方法不同,这种替代方法允许直接从数据中识别流场变量与湍流之间的映射关系。 Zhang et al.开展了关于代理湍流模型发展的广泛研究,并取得了令人满意的结果。这种方法旨在替代传统的RANS模型,而非修改现有湍流模型以适应高雷诺数下的湍流流动。Zhu等人基于高雷诺数下NACA0012翼型周围的湍流流动数据,利用全连接深度神经网络(DNN)开发了一个代理湍流模型。在六个NACA0012翼型周围流动工况下训练该模型,结果表明该模型适用于不同的自由流条件和翼型形状。模型的结果(如涡动粘性、速度剖面和阻力系数)与参考数据高度一致,证明了其泛化能力。这一研究展示了将机器学习技术应用于湍流建模的潜力。Sun等人设计了一个神经网络模型,该模型基于SA湍流模型在高雷诺数下的空气动力学流动数据,将流动特征与涡动粘性相关联。结合CFD求解器,该模型替代了SA湍流模型,在不同入流条件下(攻角、马赫数、雷诺数和翼型类型)表现出强大的泛化能力。Kutzj创建了一个基于张量的神经网络模型,用于雷诺应力各向异性,该模型可以表征二次流和波动壁面边界中的分离现象。Zhu等人采用RBF神经网络开发了一个完全数据驱动的黑箱代数湍流模型,并成功地将其与N-S方程结合用于求解。该模型在NACA0012翼型的三个亚声速工况下的精度与SA模型相当,但计算效率更高;同时,它在计算状态和几何形状方面展现了强大的泛化能力,验证了人工智能方法在解决工程湍流问题中的应用性。典型的计算结果见图13。 图13. 对(a)NACA0014和(b)RAE2822翼型在P1、P2和P5位置的预测结果。 替代模型的性能在计算结果中至关重要,显著影响求解器的收敛性。具体而言,建立这些模型对输出的准确性、平滑性和稳定性提出了严格要求。然而,湍流变量在边界层中的快速变化可能会引发显著的尺度效应,尤其是在高雷诺数条件下。因此,保持替代模型在整个训练数据空间内的高精度是一项挑战。模型表现不佳的“边缘区域”容易受到异常值的影响,进而影响模型输出的平滑性。此外,在将建立的模型集成到求解器中后,在迭代过程中可能会出现一些不稳定性,并且在残差下降过程中可能会出现残余振荡。 在表3中大致比较了三种基于机器学习和人工智能的湍流建模方法,分析了每种方法的当前优势和问题(见表4)。 在应对复杂化学反应机制所带来的计算挑战时,研究人员主要采取了以下四种方法。 (1)提高计算机性能与高性能并行效率:研究人员集中于通过开发并行算法来提升计算效率。 (2)高效积分方法:Hochbruck和Ostermann提出了指数积分方法,利用包含Jacobian矩阵指数函数的格式,实现了使用显式大时间步长的计算。Liu等人将这些方法与Krylov子空间逼近法结合,有效地将原问题投影到Krylov子空间,从而减少了维度。研究结果表明,与传统的直接积分方法相比,计算速度加快了2.35倍。 (3)查找表方法:由Van Oijen等人最初提出并广泛采用的火焰燃烧模型仍然是常见的方法。Pope开发了原位自适应查找表(ISAT)方法,通过动态存储计算得到的热力学变化,利用二叉树结构在没有预计算的情况下促进后续计算。随后,Lu和Pope通过整合误差控制和表格查找策略,改进了ISAT方法,提高了准确性和效率。 (4)化学反应机制简化方法:主要的简化技术包括预简化和自适应化学反应机制。Turanyi广泛采用灵敏度分析评估各种变量对系统输出的影响,从而去除对系统影响较小的组分和反应。此外,Lu和Law提出了定向关系图(DRG)方法用于机制简化。然而,该方法在计算系数时,侧重于净反应速率,有时未能识别某些相关组分,尽管它们各自的反应速率较大,但净反应速率较小。Sun等人开发了路径流分析(PFA)方法,将组分生成和消耗路径的分析分开,有效解决了DRG方法在定义系数时的局限性。尽管PFA的计算需求较高,但在效率上已被证明优于DRG。 上述方法在早期计算发展阶段被证明是非常有优势的。然而,由于计算机技术的快速进步以及近年来深度学习的爆炸性增长,研究人员越来越多地转向机器学习方法,以实现更高效的化学反应计算和方程求解速度。这些努力大致可分为两类。第一类方法是在燃烧仿真之前,利用机器学习方法构建和简化化学反应机制。研究人员根据仿真条件优化机制,然后利用简化后的机制在仿真过程中减少计算复杂性。第二类方法是在数值仿真过程中利用机器学习方法加速方程求解过程,例如通过人工神经网络(ANN)构建表格,以快速进行化学反应计算。以下将对这些策略进行进一步详细描述。 应对化学反应的复杂性以及识别未知的燃烧路径是重要的挑战。基于机器学习的方法在克服这些难题中起到了关键作用。季和邓提出了一种化学反应神经网络(CRNN)方法,用于从浓度时间序列数据中自主发现反应路径和动力学参数。CRNN是经典化学反应网络的数字孪生,采用质量作用定律和阿伦尼乌斯定律等基本物理法则进行表述。反应路径和速率常数可以通过CRNN的权重和偏置进行解释。利用随机梯度下降法优化大规模非线性CRNN模型。该方法在化学工程和生物化学中的三种典型化学系统中得到了验证,反应路径和动力学参数可以被准确学习。此构建方法具有良好的物理可解释性。Zeng等人将反应分子动力学模拟与人工神经网络(ANN)结合,探索了新的甲烷反应路径。 反应分子动力学模拟可以在没有先验知识的情况下发现新的反应和物质。这些模拟记录了包括数百种中间自由基在内的组分。随后,这些模拟数据被用来训练神经网络,从而生成潜在能量面,以供进一步的模拟使用。这些潜在能量面有助于描述复杂的化学反应,例如甲烷燃烧过程中发生的反应。本研究提供了一种有效的方法,用于在原子水平上理解化学反应过程并识别新的反应路径。 机制简化可以将组分的比例和反应数量减少几倍甚至几十倍。然而,过于激进的简化策略可能引入显著的误差,并且无法适应广泛的温度、压力和燃料比。通过这种“简化与优化”过程获得的简化且准确的化学反应机制,对于缩短迭代周期和降低研发成本具有重要价值。此外,基于实验数据优化化学反应机制可以提高反应动力学机制的可靠性和适用性。Si等人利用基于深度学习的人工神经网络(ANN)来搜索最优反应参数。考虑到化学效应,他们优化了一种四步简化动力学机制,用于一维停滞流反应器中甲烷在温和燃烧条件下的低氧稀释燃烧。结果表明,JL-ANN在非预混合甲烷喷射火焰的数值模拟中显著优于所有先前的JL机制,包括热流和炉内温和燃烧。因此,ANN方法可以作为优化各种全球燃烧化学机制的有前景的工具,适用于温和燃烧或任何燃烧模式的CFD模拟。Su等人提出了一种基于神经常微分方程(ODE)的反应动力学系统优化方法,可以用于优化动力学机制参数。给定实验或高成本模拟观测数据作为训练数据,该算法能够最优地恢复数据中的隐藏特征。网络架构如图14所示。Su在可微编程下实施了传统的ODE系统作为单一ODE层,并通过约束ODE层积分结果与数据的匹配,实现了反应系统的多目标优化。该方法具有多种实际应用,包括基于冲击管实验数据的机制参数优化、活跃子空间和不确定性传播的快速计算,以及基于出口观测的进口条件估计。 其中,A、B和C表示三个不同的组分;u0表示初始时刻的状态变量;ut表示某一时刻的状态变量;图中u0和ui的中间子模块表示用于计算t时间步迭代结果的相同ODE层;b3表示温度系数,Ea表示活化能。它们通过三参数阿伦尼乌斯公式与温度T建立关系;Ai表示阿伦尼乌斯常数;Eai表示反应的活化能,其中i=1,2,3对应于三个组分(A、B和C)。 化学反应源项的求解会导致显著的计算成本。为了解决这个问题,基于机器学习的模型可以作为替代模型来计算这些源项。这些模型使用热化学状态作为输入,并以相应的化学反应源项作为输出。神经网络模型已被建立以加速求解过程。在20世纪末,Christo等人应用神经网络加速了燃烧化学中的化学反应积分过程。他们结合化学反应机制和联合速度标量概率密度函数(PDF)方法,模拟了湍流H2/CO2火焰。他们指出,与传统方法相比,采用人工神经网络(ANN)表示湍流火焰中的化学反应机制显著减少了内存需求,并提高了计算效率。Wan等人利用神经网络为13组分甲烷系统构建了化学反应机制,使用三个神经网络计算组分的质量分数、温度和密度变化。Bellman则使用卷积神经网络(CNN)处理多张二维组分质量分数和温度图像,预测化学反应源项。他们通过DNS模拟湍流非预混合含氧火焰并考虑侧壁效应生成训练数据。结果表明,使用CNN训练的化学简化模型在减少中央处理单元(CPU)负担和提高组分预测准确度方面,超过了阿伦尼乌斯模型(见表5、表6、表7、表8)。 Alqahtani 和 Echekki引入了一种基于核主成分分析的方法来降低化学状态空间的维度。他们利用人工神经网络(ANNs)从这些降维后的数据中学习,避免了化学反应积分的直接计算,从而大大减轻了化学反应的计算负担。他们的研究结果显示,对于十二烷、辛烷和十烷,计算加速分别达到了大约一、二和三个数量级,显示出显著的效率提升。Li 等人开发了一种计算全局灵敏度指数的技术。他们构建了神经网络作为随机样本生成器,并将其与高维模型表示结合,以提高收敛性和计算效率。Chen 等人提出了一种用于氢燃料增压发动机的零维燃烧反应动力学计算方法,采用残差神经网络快速预测不同时间间隔下的温度、压力和组分浓度变化。对于一个包含29个反应的11组反应的动力学模型,他们实现了9.13倍的计算加速,根均方误差降至7.85E-05,并且氢燃料参数的预测精度超过98%。这些结果证实了他们的方法在计算效率和精度上优于现有的基于神经网络的燃烧计算方法。 An 等人开发了一种基于神经网络的通用化学反应机制模型。为了匹配更大的样本空间,作者使用了多个神经网络来实现常微分方程(ODE)方程的替代,具体方法如下:他们通过RANS模拟生成了大量样本,并使用自组织映射(SOM)对其进行分类。将这些分类后的样本输入到一个专门的反向传播神经网络(BPNN)中进行训练,最终得出了基于SOM-BPNN的化学反应机制,如图15所示。通过创建甲烷的框架机制,进一步验证了这一方法,得出的结果与传统的化学反应机制非常接近。在效率方面,基于SOM-BPNN的机制进行化学反应积分所需的计算时间减少了大约两个数量级。 在此过程中,SOM负责对数据集进行分类,因为如果仅使用一个人工神经网络(ANN),将很难获得令人满意的模型。此外,反向传播人工神经网络(BPNN)作为一种ANN类型,用于对每个子类进行回归。 Zhang 等人提出了一种基于Box-Cox变换的预处理方法以及基于燃烧物理过程的多尺度采样方法,用于系统地比较不同预处理和采样方法对神经网络能力的影响。结果表明,多尺度采样方法能够获得最高质量的数据集。通过离线训练,可以开发出一种广泛适用于各种燃烧场景的单一神经网络。该神经网络具有稳定性、大时间步长和准确预测化学反应源项的优点,有效克服了数值模拟中的化学刚性问题,显著提高了模拟效率。如本研究所观察到的,机器学习方法本质上是数据驱动的;数据采样策略和预处理方法直接影响最终模型的预测精度和适用范围,因此在建模过程中需要密切监控。 详细的燃烧化学反应机制在燃烧领域的数值模拟中至关重要,因为它们显著提高了捕捉关键物理现象的准确性,提供了可量化的结果指标,并使得对火焰结构的深入分析成为可能。主要挑战在于这些详细机制的高维性和化学刚性,导致了极高的计算成本。因此,开发加速算法以降低维度并消除化学刚性是至关重要的。从降维的角度来看,现有的基于敏感性分析、时间尺度分析或反应网络通量分析的机制简化方法在简化效果上已经达到了瓶颈,难以实现显著简化的骨架机制。此外,这些方法通常缺乏针对特定场景所需的灵活性和特异性。在消除化学刚性方面,现有的神经网络代理模型主要用于预测化学反应源项,通常针对特定研究场景设计,存在样本分布泛化能力有限,且模型便携性差的问题,这制约了神经网络方法的进一步发展和应用。 利用先进的机器学习方法开发机制简化数学模型和代理模型,以克服传统方法的功能限制和泛化问题,是燃烧领域下一代科学计算应用的关键一步。通过将传统方法与机器学习方法相结合,探索机制简化和代理模型的创新思路与解决方案,并应对与燃烧领域详细化学机制相关的典型计算挑战,燃烧模拟技术有望取得重大进展。这一融合有潜力扩展人工智能方法在燃烧科学领域的应用。 Tian等人进行了全面的数值与实验研究,探讨了湍流燃烧过程中湍流与化学反应之间的复杂耦合关系,以及超音速流动条件下的点火与火焰稳定方法。研究结果表明,在节流空气的帮助下,火花塞可以成功点燃室温液态煤油。此外,Sun和Wang进行了具有重要价值的湍流燃烧和等离子体诱导点火的地面实验。他们利用激光诱导等离子体在Ma = 2.5、总温度为1486 K的超音速流体中点燃燃料。他们还构建了一个直接连接的轴对称超音速燃烧冲压发动机模型,配备全透明玻璃燃烧室。采用高速摄影技术从内部和外部角度可视化轴对称超音速燃烧室中火焰的传播情况,涵盖了火焰的环向和轴向传播。研究强调了轴对称超音速燃烧室中的点火与火焰传播机制。多项研究探索了在不同流入条件下,使用多通道滑模弧(MCGA)等离子体增强乙烯燃料在腔型超音速燃烧室燃烧器中的点火与燃烧,结果如图16所示。研究表明,火焰主要位于腔体前缘附近,并以射流-尾流稳定模式运行。当将MCGA等离子体添加至腔体前缘的上游壁面时,火焰的剧烈区域向上游扩展,长度是原来没有等离子体时的6.5倍。等离子体关闭后,火焰又回到腔体前缘。通过这些研究,深入理解了湍流燃烧过程中的点火与火焰稳定机制,为湍流燃烧建模提供了高可靠性的数据信息和结果验证。 图16. 基于实验火焰化学发光数据的超燃冲压发动机燃烧室中MCGA等离子体点火增强机制:
(a) MCGA等离子体增强点火机制;
(b) 案例4的瞬时火焰化学发光图像(全球等效比(GER)= 0.15);
(c) MCGA等离子体增强燃烧机制;
(d) 案例1的复合火焰化学发光图像(GER = 0.3)。 湍流与化学反应计算之间存在复杂的耦合关系,主流的燃烧模型大致分为两类。第一类包括火焰层模型,Oevermann在构建火焰层数据库时仅使用物质的质量分数,随后通过在二维RANS计算中采用能量方程隐式求解温度。该超燃烧火焰层修正模型较为简洁,能够得出合理准确的计算结果。Berglund和Fruedy对德国航空航天中心(DLR)氢气燃料支架燃烧器进行了三维(3D)计算,采用了与基于反应进展变量的部分预混合燃烧火焰层模型相结合的LES方法。针对超燃烧中的多种燃烧模式(非预混合、部分预混合和预混合),Hou等人将最初为低马赫数燃烧设计的多模式火焰层模型与Oevermann提出的修正模型相结合,并使用DLR氢气燃料支架燃烧器的实验数据对其进行了验证。第二类模型是PDF类模型,它认为每个组分在燃烧中的浓度分布可以通过样本集来描述。Frankel等人开发了混合RANS/假定PDF模型,并将其应用于超音速混合层中的湍流燃烧模拟,结果表明该模型相较于原始的“准层流”计算有所改进。这些计算还表明,PDF的具体形式对结果有显著影响。Forster和Sattelmayer验证了一个假定PDF模型,其中温度服从高斯分布,组分服从多元PDF。计算分析表明,该假定PDF模型在模拟超燃烧时非常有效,尤其是在PDF方差得到准确指定的情况下。Baurle和Girimaji使用假定PDF和RANS方法模拟了超音速同轴氢气/空气喷射燃烧,得到了与实验数据一致的结果。Wang等人将LES与假定PDF方法结合,用于超音速燃烧的模拟,验证了该模型在超音速同轴氢气/空气喷射燃烧和DLR支架氢气超燃烧中的有效性。 基于理论的湍流燃烧模型的发展使科学家们在数值计算层面上更接近于理解真实燃烧流动过程。然而,这些模型仍然需要大量的计算资源,这对计算能力提出了巨大的挑战。近年来,许多研究已开始利用机器学习方法来建模湍流燃烧。通过机器学习方法建模未封闭项的研究新领域使得仅依赖数据而不做额外假设就能建立模型成为可能。 对于特定的火焰元模型,例如火焰元进展变量模型,化学反应源项可以表示为: 其中,Z 是混合分数;c 表示反应进程变量;ω ̇(Z,c)是源项;ω 是由源项生成的物质;∙ ̃是滤波变量;P ̃(Z,c)是 Z 和 c 的联合密度函数,必须进行建模。通常涉及假设 PDF 的形状;然而,这种假设无法准确地表示某些标量在特定燃烧模式下的统计行为。因此,使用未经调整的假定 PDF 模型在特定燃烧模式下可能会导致不准确甚至错误的预测结果。 几项研究提出了一种结合主成分分析(PCA)和多维核密度估计的基于数据驱动的建模方法。该方法利用 PCA 从大量实验数据集中识别关键参数,然后基于这一识别构建联合标量 PDF 和条件标量均值,从而实现模型闭合。这种方法已在不同的研究中应用,其中基于 Sundia 实验室火焰案例进行了先验和后验研究。结果表明,模型预测精度显著提高,混合分数、温度和物质种类的统计结果与实验数据高度吻合。机器学习可以建立特定燃烧配置的数据驱动的滤波密度函数(FDF)模型。Chen 等人利用深度神经网络(DNN)预测混合分数 Z 和反应进程变量 c 的联合 FDF。在此过程中,使用 PCA 技术从训练数据中去除异常值,并利用训练好的 DNN 预测的 FDF 计算 ω ̇ ̃。结果显示,滤波后的反应速率与 DNS 数据高度一致。此外,预测的 FDF 形状与传统 FDF 形状(正态分布)显著偏离,表明传统的假设 FDF 对于某些特定燃烧模拟配置不再适用。为了增强与神经网络结合的燃烧方程的泛化性能,Zhang 等人提出了一种基于 GPU 的求解器,用于求解偏微分方程并计算热力学和传输性质,通过采用人工神经网络替代反应源项的计算。该方法通过两个旋转火焰 LES 示例进行了验证。 进程变量耗散率的建模在湍流反应流中至关重要,通常可以定义为:χ_c=2D_c |∇c|^2,其中是反应进程变量的扩散系数。传统的进程变量耗散率模型相对简单,但通常精度较低。Yellapantula 等人利用滤波应变率、刘易斯数和若干滤波变量作为输入,通过深度神经网络(DNN)预测在 LES 和燃烧条件下的进程变量耗散率。训练后的模型表现优于传统模型,并且在其他燃烧条件下具有一定的可迁移性。 标量耗散率是喷雾燃烧中的一个关键参数。传统的标量耗散率闭合模型通常不准确,因为它们忽略了液相的影响。Yao 等人将液相特性(如蒸发速率)作为输入,利用人工神经网络(ANN)建立了一个在 LES 下用于标量耗散率的子网格尺度模型。结果表明,这些模型在混合分数空间内与 DNS 数据一致。 对于 LES(大涡模拟),已经开发并验证了许多应力张量模型,适用于不可压缩流和非反应流。然而,在反应流中,这些模型未考虑温度、密度、速度和粘度在火焰前沿的变化带来的显著影响。因此,直接将它们应用于反应流中往往不能产生令人满意的结果。Nikolao 等人应用神经网络对湍流预混 V 型火焰中的未闭合应力张量进行建模,利用标准化的密度和速度梯度作为输入,生成六个应力张量分量。他们还研究了网格粗化对训练数据的影响,利用细网格上的高保真 DNS 数据库。训练后的神经网络模型表现出优于传统子网格尺度模型(如 Smagorinsky 模型)的适应性。此外,Schoepplein 等人利用基因表达编程(GEP)这一机器学习方法,对 LES 中的预混火焰子网格尺度应力进行建模。GEP 算法优化了应力方程中基本函数的标量系数,在 LES 建模框架内证明了其有效性。 在湍流预混合燃烧模拟中,火焰前沿的湍流导致火焰片的褶皱。假设火焰是薄火焰,湍流火焰速度与火焰片的面积相关。因此,准确评估子网格尺度的火焰片面积至关重要。Lapeyre 等人提出使用卷积神经网络(CNN)来建模湍流预混合燃烧条件下的子网格火焰片密度。用于训练 CNN 的数据通过 DNS 生成。结果表明,CNN 可以有效提取火焰的拓扑特性,准确预测子网格尺度上的火焰褶皱,优于传统的代数模型。类似地,Ren 等人采用类似的方法预测高 Karlovitz 数下的子网格火焰片密度,CNN 模型在性能上超越了使用较大滤波器尺寸的传统模型。 Ding 等人提出了一种新型的机器学习方法,以加速湍流燃烧模拟中的热化学计算,解决了纯数据驱动的湍流燃烧建模方法中普遍存在的泛化和预测精度问题。他们采用了一种混合火焰/随机数据方法来生成训练数据集,从而增强了人工神经网络(ANNs)的泛化能力。此外,他们还开发了一种多层感知机(MLP)方法,通过训练多个 MLP 来预测导致小幅或大幅组分变化的状态。这种方法显著减少了预测误差,尤其是在组分变化较小的状态下。该方法被应用于模拟具有可变应变率、差异扩散和可变当量比的单一预混合火焰。最后,还对 CH4/空气自燃火焰 Sandia D、E 和 F 进行了 LES 模拟,涵盖了不同程度的局部熄火。模拟结果与直接积分得到的结果一致,表明所提方法具有强大的泛化能力。最终,反应步骤的加速比达到了 12 倍。 因此,机器学习方法在化学反应动力学建模、燃烧模拟以及计算加速方面取得了一系列显著成就。超音速燃烧流场具有强压缩、多模态行为和多尺度特征,因此需要精准且全面的数据来深入理解湍流燃烧。机器学习模型的有效性在很大程度上取决于训练数据中所包含特征的多样性,且在之前的研究中常常优于传统的基于物理的模型。然而,这些方法在后续应用时需要谨慎使用。此外,湍流燃烧研究常常面临稀疏的测量数据和与仿真相关的高昂成本问题。 由于其固有的物理特性,物理科学问题展现了从低阶到高阶的各种物理信息和特征。Raissi 等人引入了物理驱动的神经网络(PINN),通过深度学习解决这些问题。PINN 利用这一特性,通过开发物理驱动的方法,将物理方程整合到损失函数中,使神经网络能够学习这些方程的本质。Liu 等人首次建立了一个物理信息神经网络(PINN)框架,用于使用合成稀疏数据进行湍流燃烧的高分辨率三维重建。其架构如图 17 所示。他们评估了 PINN 在两种不同湍流火焰结构下的表现:一种是没有均值剪切的结构(自由传播平面预混合燃烧),另一种是具有均值剪切的结构(槽式喷射预混合燃烧)。结果表明,该方法能够以物理信息的方式重建大多数流动和火焰结构。然而,模型的效果可能受到稀疏数据集的大小、噪声水平以及湍流-火焰相互作用复杂性的影响。为了解决训练过程中数据集分布的问题,Wang 等人提出了一个基于 PINN 框架的预混燃烧模型,以应对现有参数化方法中预测精度低和实验成本高的问题,如图 18 所示。与典型的数据驱动和机器学习方法不同,该 PINN 模型完全由物理驱动,无需任何训练数据集,从而显著减少了实验设计和单独仿真所需的时间。 在这项研究中,采用了三个PINN子模型来有效地学习不同的控制方程,包括PINN-1用于动量,PINN-2用于物种质量分数,PINN-3用于温度。 参数化燃烧场代理模型示意图。该模型具有7维输入(蓝色框)和9维独立输出(Yk是一个5维向量,k = 1, …, 5)。模型输出(绿色框)还包括根据用户需求从独立变量衍生的无限变量。该代理模型内部的核心神经网络(红色框)在PINN架构中进行训练(黄色框),包含14个物理约束条件。 熊等人构建了基于PINN的三维高分辨率重构模型。该PINN模型成功地通过受限和受控方程的残差以及稀疏数据中的有限信息恢复了大多数流动和火焰结构。图19展示了模型预测的三维涡旋结构的瞬时分布。模型的预测结果与通过数值计算获得的实验结果高度一致。他们通过DNS验证了典型的一维和二维预混合燃烧问题的准确性。结果表明,PINN具有强大的预测能力,相对系数(R)通常在0.99以上。 与常见的数据驱动和机器学习方法不同,本研究中提出的PINN模型完全由物理驱动,不依赖任何训练数据集。这一方法显著节省了实验设计和单个案例仿真的时间。因此,PINN成为了参数化燃烧系统可视化、设计、优化和主动控制的有效且稳健的替代建模方法。 在高速流动条件下,飞机的静态和动态失速以及发动机内部的流动状态是非定常气动学中的关键问题。这涉及到复杂的流动现象,包括强烈的冲击波、激波和边界层干扰,导致流场的非线性分布特性,特别是在燃烧室中。这些流场包含了众多复杂的物理和化学反应及多尺度湍流燃烧耦合效应,使得燃烧流动分析更加复杂。通过地面风洞测试获取流场信息需要大量的人力和资源。尽管数值仿真算法的发展促进了超音速发动机和飞机的优化,但对于具有复杂非线性滞后特性的工程大规模项目,高精度数值仿真仍然需要极大的计算工作量。传统的流场分析方法,无论是接触式还是非接触式,包括粒子图像测速(PIV)和激光诱导荧光成像,在监测流场发展方面已证明其可行性。然而,这些方法复杂、成本高且耗时。此外,对于具有复杂结构的超音速燃烧流场,它们的预测能力显著降低。
近年来,由于神经网络模型强大的特征提取能力,这些模型已广泛应用于流体力学。通过利用来自计算流体力学的大量数据,神经网络模型能够自主学习流场的复杂演化结构,并建立输入与输出之间的非线性拟合关系。在推理过程中,这些模型能够在毫秒级别内有效预测各种复杂性的流场结构,显著推动了超音速发动机优化设计过程的进展。因此,基于深度学习算法开发燃烧流场求解器具有重要意义。目前,基于深度学习的超音速流动和燃烧多物理场智能重建与预测的主要方法包括纯数据驱动的流场预测方法、基于深度学习的超分辨率重建方法和物理信息驱动的流场预测方法。 作为深度神经网络的驱动力,数据赋予了这些系统在流体动力学中的巨大潜力,尤其是在大量实验数据可用的情况下。纯数据驱动的深度学习方法广泛应用于智能重建和预测气流进气道、隔离器和燃烧室内的流场。 使用深度神经网络预测流场涉及利用从地面测试或数值计算中获得的大量数据,来拟合和优化神经网络的参数。这个过程建立了输入和输出之间的非线性特征映射关系。 进气道为燃烧室提供氧化剂,它通过减速和加压进入的气流,以满足燃烧需求。进气道内部的流动特性对评估其性能至关重要。高超音速进气道中的激波/边界层相互作用具有多个激波的特点,且相邻的相互作用区域可能会展现出强、弱或不耦合的相互作用,以及不同的分离泡形态等复杂流动特征。人工智能算法能够有效减少逐案模拟的时间和计算成本,并实现对进气道复杂流动现象的高精度、高效率捕捉。因此,为了解决大量数值模拟计算的需求并探索深度学习算法在进气道设计中的应用,Fujio 和 Ogawa使用了基于三阶梯轴对称进气道的多层感知器神经网络。他们利用六个设计参数(第二和第三阶梯的增量角度、轴向长度、进气口和出口半径),在20 km高度和Mach 7.7的条件下,成功预测了进气道内部压力场、速度场和马赫数场的主要结构。然而,对于复杂的流动现象,如边界层分离和马赫反射,预测误差较大。为了提高模型对这些罕见流动现象的预测精度,研究采用了不确定性量化方法进行采样,并减少数据偏差。然而,这种方法只能实现局部和有针对性的改进。为了提高MLP神经网络的训练速度,Fujio 等人将MLP与高斯过程潜变量建模(GPLVM)相结合,采用广义最小二乘支持向量机(Generalized Least Squares Support Vector Machines)解决了降维问题,指定了几个潜变量,有效地减少了降阶建模过程中的数据损失。尽管与直接预测相比,预测精度有所降低,但计算成本显著低于基于深度学习的直接预测。由于流动特性遵循流体物理法则的平移不变性,Tan 等人将MLP与变分自编码器网络相结合。这种方法有效地提取了流场结构的空间关系,并在重建复杂流动结构(如激波、边界层和分离泡)时,表现出比MLP模型更强的泛化和生成能力。Zhong 等人指出,使用网格计算坐标作为输入比使用物理坐标更具鲁棒性和准确性。他们还研究了基于压力分布的预测是否比基于工况的预测更具鲁棒性和准确性。 然而,由于MLP中的每个神经元都与其他神经元相连,完全连接的网络通常拥有大量的参数,这使得它们在处理高维数据时容易发生过拟合。卷积神经网络通过其滑动窗口模式、特征参数共享和稀疏连接,在提高流场重建和预测的准确性和速度方面具有显著优势。 一般情况下,进气道的横截面形状不规则(尤其是内曲进气道或其他流向型进气道),而燃烧室通常为矩形或圆形。因此,隔离器的形状非常复杂,需要实现进气道和燃烧室之间的平滑过渡。此外,当附加的逆压梯度施加到边界层时,冲击列的分离尺寸会增大,冲击列的前缘会被推前。与进气道相比,隔离器段的配置特征更为明确,这使得卷积神经网络(CNN)在拟合高维特征时更加有效。 Kong 等人提出了一个基于卷积神经网络 (CNNs) 的流场重构模型,用于提供丰富的信息源,以检测隔离器的运行状态。该模型根据隔离器上的压力重构隔离器内的流场。Kong 等人利用卷积神经网络建立了隔离器壁面压力与隔离器内部流场(包括马赫数场、压力场、温度场和速度场)之间的特征映射关系。他们在不同的马赫数和背压条件下测试了训练后的模型,预测结果的相关系数超过 0.99。此外,他们验证了输入压力点的数量对模型性能的影响。为了解决单一输入样本缺乏时间相关性的问题,Kong 等人提出了一个基于壁面压力序列的多路径流场预测模型。该模型利用不同的结构分支提取不同时间点的分布特征并进行融合,从而增强了捕捉流场时间特性的能力。它能够恢复冲击前沿、背景波以及冲击列结构的间歇性变化。然而,对于下游边界层分离和膨胀波,预测性能较差,如图 20 所示。 为了推导出一个有限开销的载荷预测模型,Peters 等人构建了基于正交分解 (POD) 和卷积神经网络 (CNN) 的模型,用于预测超音速条件下分离的载荷表面压力和剪切应力分布。此外,结果表明,基于 CNN 和 POD 的代理模型能够提供高保真度的分布载荷和轨迹预测,同时大大降低了计算开销。 上述方法通过神经网络建立了输入壁面压力与输出流场之间的非线性特征映射关系。基于相同的概念,Kong 等人利用来自地面实验的流场示影数据预测速度场。该方法解决了地面实验中,由于测量技术和设备的固有限制,无法获得隔离器内部速度场的问题。 由于燃烧室中的来流速度显著高于火焰的传播速度,高速来流大大提高了混合气体的对流热传递强度。热化学反应与流动的相互作用导致了冲击边界层分离,从而导致燃烧室内热负荷分布不均,增加了总压损失,并对发动机的整体性能产生重大影响。燃烧室性能的优化和关键挑战的解决最终将决定超燃冲压发动机技术在工程应用中的可行性。传统的接触式燃烧流动测量方法无法获得可靠的物理场数据。因此,利用深度学习对燃烧室流动物理场进行重构和视觉分析,评估超音速发动机的运行状态并确保飞机的持续稳定运行至关重要。 得益于从超音速发动机地面风洞实验和数值模拟计算中获得的大量燃烧流场数据,数据驱动的深度学习方法得到了显著推动。Chen 等人提出了一种基于多分支融合卷积神经网络(MBFCNN)的深度学习架构。他们通过卷积和转置卷积构建了模型骨干,利用不同尺度的池化层和卷积建立了分支,并获取不同尺度的特征信息进行融合。该方法首次实现了超音速发动机燃烧室内部复杂流场的重构。预测结果如图 21 所示。 从图 21 可以看出,尽管模型在测试集上的平均线性相关系数达到了 0.952,但在流场下游的湍流区域以及斜激波 D 的细节特征仍然存在明显的模糊现象。Deng 等人引入了多头注意力机制,以增强模型的全局特征提取能力。该机制从不同的键中提取具有相同值的特征,结合局部特征信息,并有效提升了模型的全局特征提取能力。尽管做出了这些改进,但在湍流燃烧区域的预测误差仍然显著。Li 等人提出了基于 8 像素步幅的完全卷积网络深度学习方法,用于分割示影图像中的波系结构。尽管该方法有效地分割了流场中的主要波系结果,但完全忽视了湍流区域。因此,为了进一步提升模型在复杂湍流脉动区域的重构性能,结合数据驱动与知识驱动方法,并发展融合“机制”和“数据”的流场预测新范式是至关重要的。 由于燃烧流动演化过程简洁且快速,准确捕捉固定时间点的流动特征具有挑战性。提前预 测未来时刻的流动特征或减少模型推理速度对于主动决策控制至关重要。Guo 等人提出了一个多路径融合卷积神经网络模型,用于提前感知超音速燃烧室流场的演化状态。该模型可以有效地使用当前时刻的壁面压力数据预测跨时刻的燃烧流场,并分析不同壁面压力量对流场预测的影响。Chen 等人引入了一种基于 LSTM 时间特征存储能力的记忆融合级联网络,该网络利用前一时刻的火焰图像预测未来时刻的火焰自发光图像,并能够在短时间预测范围内(如5 ms、10 ms和15 ms)实现高精度的火焰场预测。Yang 等人提出了结合基于 POD 的降阶模型与多分支卷积神经网络的超音速燃烧室流场重构方法。通过引入 POD 重构算法,该方法显著减少了模型的训练时间,且对精度的损失最小,但牺牲了流场预测的精度。Tian 等人设计了一个基于高度参数化卷积神经网络模型的智能预测模型,用于燃烧室火焰自发光图像预测。该方法利用了通过填充 1 × 1 卷积核形成 3 × 3 卷积核并实现与原始 1 × 1 卷积核相同效果的原理,在推理阶段将多分支结构重新参数化为单分支结构。与传统卷积神经网络模型相比,该模型的重构速度提高了 40.7%,且精度损失较小。 为了进一步平衡流场预测的精度和效率,Tian 等人提出了一个基于知识蒸馏模型压缩的超燃冲压发动机燃烧室流场智能重构算法,并通过对称结构级联的特征拼接和融合构建了一个神经网络模型。该模型结合了教师模型的高精度与学生模型的高效率,能够“快速”和“准确”地重构基于超音速燃烧室壁面压力的复杂燃烧流场,将重构速度提高了50%。残差神经网络通过跳跃连接融合浅层特征与高维特征,从而建立了稳健的信息传输流。此外,作者验证了残差神经网络在复杂湍流燃烧区域的流场视觉重构性能优于其他方法,但其整体预测指标有所下降。这揭示了有效结合残差神经网络与传统卷积神经网络来预测复杂湍流燃烧区域的重要性。在此基础上,Deng 等人分析了燃烧流场与火焰场之间的时间耦合关系和特征分布规律,提出了一种基于通道和空间注意力机制的残差网络模型。该模型基于超燃冲压发动机流场的示影图像重构火焰自发光图像,并验证了与单路径模型相比,双路径模型能够提取更丰富的特征信息并具有更强的泛化能力。然而,对于敏感于特征变化的火焰尾部,重构误差仍然较大。Guo 等人提出了基于多源信息融合的密集卷积神经网络构建的流场重构密集网络(FRDN)。该模型的框架如图 22 所示。 图 22. 基于多源信息融合的 FRDN 网络架构。 该模型采用了多分支结构。在流场数据方面,使用密集连接和跳跃连接融合不同层次的高频和低频信息。在压力数据方面,首先使用全连接层进行维度转换,然后使用卷积代替全连接层,以减少模型的计算量。最后,将这两种不同类型的特征进行融合,为模型提供更丰富的先验知识。FRDN 融合了压力和流场图像,为模型提供了更为丰富的先验知识。测试结果表明,FRDN 模型重构的火焰自发光图像与实验结果高度一致,准确描绘了火焰边界、火焰头部区域、火焰区域和燃烧强度。测试数据集的平均峰值信噪比达到 31.57 dB,平均结构相似度指数为 0.939,均方误差为 0.979,相关系数为 0.0013。 基于数据驱动的超音速燃烧流场重构与预测方法 正在不断发展。在对气动外流场和级联流场的预测中,依赖于自编码器、长时记忆网络和迁移学习的方法为提高预测超音速内流场模型的准确性和效率提供了新的思路和研究方法。然而,这些方法都是数据驱动的。然而,超音速燃烧流场包含许多燃烧流场机制,而神经网络无法捕捉这些机制。基于物理信息约束的流场预测方法利用燃烧流场机制约束神经网络的预测,有效减少了模型对数据的依赖,并防止生成误导性的解释。这种方法已成为当前研究的热点之一。 在实验流体力学中,粒子图像测速技术(PIV)或示影技术有效捕捉了主要的大尺度结构;然而,空间分辨率受到相机和外部设备固有特性的限制。经过分析,可以明显看出,在许多实际工程场景中,获取湍流中的细尺度结构是具有挑战性的。因此,增强流场的空间分辨率显得尤为重要。基于深度学习算法的超分辨率技术,利用低分辨率图像估计高分辨率图像的最新进展,已在人工智能领域引起了越来越多的关注。 超分辨率是指从观察到的低分辨率图像中重构出高分辨率图像。Liu 等人开发了静态卷积神经网络(SCNN)和新型多时序路径卷积神经网络(MTPC)。SCNN 模型以瞬时快照作为输入,而 MTPC 模型则以一系列速度场的时间序列作为输入,包含了空间和时间信息。MTPC 在设计时包含了三条时间路径,以充分捕捉不同时间范围内的特征。由于 MTPC 能够从连续的流体场中提取额外的时间信息,MTPC 补充了比 SCNN 更多未解决的细节,显著提高了每个壁面区域的空间分辨率。Fukami 等人提出了一个混合下采样跳跃连接/多尺度(DSC/MS)模型,用于二维圆柱尾迹的湍流超分辨率研究。结果表明,该模型能够非常准确地从极其粗糙的湍流图像中重建细尺度湍流结构,展示了在揭示复杂子网格尺度湍流物理学方面的巨大潜力。更重要的是,Fukami 表示,基于过滤操作的传统超分辨率方法具有低通特性,这不适用于像湍流这样的高频问题。基于深度学习的随机共聚焦显微技术利用神经网络直接学习从低分辨率图像到高分辨率图像的端到端映射函数。Kong 等人提出了一个基于卷积神经网络(CNN)的流场超分辨率重构模型,包含了单路径和多路径架构。他们展示了通过加入额外的池化层增加分支路径,多路径模型能够增强实验中超音速流场的空间分辨率。研究指出,过度增加网络复杂性是不推荐的,因为过于复杂的网络可能导致过拟合,这不利于重构精度的提高。Guo 等人构建了一个多路径非对称残差网络(MRAN),用于解决由模型复杂度引起的过拟合问题,成功实现了超分辨率图像重构。该模型持续达到了超过 30 dB 的峰值信噪比(PSNR),最大 PSNR 值达到 33.37 dB,与从地面风洞实验中获得的图像数据高度一致。 基于深度神经网络的端到端超分辨率重构方法在重构精度上优于传统的基于插值技术的方法,并且在数据输入格式上具有更大的灵活性。在选择具体的机器学习方法时,需要根据目标任务的需求进行选择,同时还必须考虑输入数据之间的多尺度时空效应,以设计详细的模型结构。尽管这种方法显著提高了流场预测的分辨率,但在面对实时流场预测数据需求时,这些方法仍然存在一定的局限性。 上述方法都是基于纯数据驱动的神经网络模型,这些模型需要大量数据作为支持。然而,在数据获取困难的领域,尤其是超音速流动数据的获取,存在很大的局限性,因为这些数据的获取成本极高。一方面,可以基于生成对抗网络(GAN)利用现有数据生成大量相关数据,以补充现有数据。另一方面,基于数值计算和地面实验获得的数据,可以通过神经网络建立彼此之间的映射关系,实现数据的互补,从而扩展样本特征。此外,神经网络模型对数据质量有较高要求。神经网络模型无法区分样本数据的可靠性,当样本数据中存在错误样本时,模型的误差会突然变化。此时,可以通过正则化方法向损失函数中添加惩罚项,促使模型在训练过程中更加关注数据的整体结构,而不是过度拟合特定的数据点。这样可以有效地减少模型对输入数据的过度敏感性,从而提高其对错误样本的抵抗力。然而,这种方法仍然缺乏物理可解释性。物理信息神经网络通过引入物理机制,提供了一种新的学习范式。 4.3. 基于物理约束的超音速燃烧流场智能重建方法 超音速燃烧室内部包含了众多物理和化学反应过程,燃烧流场掩盖了复杂的流体动力学和化学反应机制。纯数据驱动的神经网络模型通过卷积、全连接层和池化等操作作用于输入特征图矩阵,建立输入与输出特征之间的映射关系。这主要表现为输入与输出值之间的非线性拟合关系,且缺乏物理可解释性。此外,在基于稀疏压力数据或多源数据重建其他流场数据时,一方面,数据的异质性过大,导致重建困难;另一方面,卷积等操作在计算过程中不可避免地会丢失大量信息。在逐层卷积过程中,浅层的结构信息被转化为深层的语义信息,而拟合输出的预测结果具有概率分布特性,从而限制了模型的预测性能。尽管基于超分辨率重建的方法可以进一步提高模型的预测精度,但其仍然依赖于先前低分辨率流场重建结果。此外,超分辨率重建还采用误差最小化的回归策略,无法保证非物理解的抑制。物理信息神经网络结合了神经网络和表征燃烧流动特征的物理机制。物理模型被用来约束神经网络的预测结果,使得模型的输出不仅满足神经网络模型建立的非线性拟合关系,还能够满足物理模型中包含的流动机制。这可以有效防止非物理解的生成,并赋予神经网络先验知识和可解释性,这是其单纯数据驱动方法所缺乏的。 近年来,Raissi 等人将 Navier-Stokes 方程嵌入神经网络中,未考虑几何结构或初始与边界条件。他们通过提取无法直接测量的定量信息,展示了隐藏流体力学在特定物理和生物医学问题中的应用。此外,该方法对低分辨率和显著噪声的观测数据表现出良好的鲁棒性。Yin 等人通过引入辅助网络来近似能量势项的二阶导数,解决了在 Cahn–Hilliard 方程中计算四阶导数的挑战。通过在有限的数据子集(即相场和压力测量数据)上进行训练,他们成功地同时预测了未知的材料参数、速度场、压力场和变形梯度场。Xu 等人开发了一种结合数据与物理原理的模型,利用 PINN 从不完美的数据中重建流场。该模型能够从具有不同稀疏性和缺失区域的速度数据中重建完整的流场数据。特别地,即使在数据稀疏度达到 1% 或核心流动区域数据被截断时,仍能准确预测压力场。Deng 等人引入了一种基于物理信息的卷积神经网络(PICNNCI),用于准确预测不同马赫数下的多物理场。该模型使用卷积神经网络进行特征提取,建立输入的时间和空间信息与速度、压力和密度等多物理场之间的功能关系,并利用表示无粘流动的欧拉方程优化预测的流场。加载流场中的物理量与数值计算的预测结果高度一致。如图 23 所示,该方法有效解决了传统卷积神经网络在缺乏先验信息时准确性低的问题。从图 23 可以看出,PICNNCI 模型重建的物理量几乎与数值模拟结果一致。即使在存在大梯度变化的区域,它也能有效地重建流场信息,其重建性能显著优于其他神经网络模型。 图23. 复杂流场区域中预测的物理量与CFD计算结果的比较。 受到这些进展的启发,Guo等人提出了一种高鲁棒性的物理信息残差空间金字塔池化(PIResSpp)卷积神经网络,如图24所示。 图24. Guo等人提出的PIResSpp架构框图。 PIResSpp模型主要使用残差模块作为主体,并通过跳跃连接方法将浅层低频特征与深层高频特征逐像素融合,从而缓解卷积过程中的特征丢失现象,保护信息的完整性。该模型采用简单的跳跃模式来提高模型拟合高维函数的能力,有效减少了模型过拟合的风险。接着,使用不同大小的池化核获取特征图中不同大小的局部区域特征,然后将不同接收场的局部特征信息拼接起来,实现局部特征和全局特征的有效融合,从而提高模型的多尺度特性和鲁棒性。 该方法已在飞行马赫数为10的无粘进气道数据集上进行了验证,证明了其通过调整进气道的各种设计参数,能够实时且准确地预测压力、速度和密度场。Wang等人将基于正交分解(POD)的降阶模型(ROM)与神经网络(NN)结合,构建了物理信息神经网络(PINN)。这一方法能够从稀疏和分散的缺失维度观测数据点中高分辨率地重建全维度的燃烧室流场。研究表明,不同样本点的采样策略对模型预测精度有显著影响。 目前,物理信息神经网络(PINNs)已经发展出多种变体,包括基于配置的物理信息神经网络(collocation-based PINNs)、利用领域分解的扩展物理信息神经网络(XPINNs)以及采用基于梯度的自适应更新的自适应物理信息神经网络(SA-PINNs)。这些进展旨在解决随着网格尺寸增大而引发的维度灾难问题,并通过关注解中的持久点,增强神经网络准确拟合“刚性”偏微分方程的能力。受物理信息约束的PINNs确保预测结果不仅符合输入和输出之间的非线性特征映射关系,还符合燃烧流场的物理机制。这对于提高神经网络模型的物理可解释性至关重要,也是未来在有效整合数据与领域知识方面突破的关键领域。 超音速飞机主要由以超燃冲压发动机(scramjet)为核心的推进系统(包括进气道、燃烧室和喷管)和机身组成,通常采用乘波体(waverider)配置。各个结构组件的高性能设计以及整机的适应性决定了其性能、成本、应用场景和作战效能。然而,超音速飞机的设计是一个复杂的系统工程挑战。不同且相互冲突的设计要求需要综合考虑包括流体力学、燃烧和热传递在内的多学科耦合作用。传统的设计方法主要依赖于工程经验、风洞试验和大量的数值优化,导致设计周期长、成本高、设计灵活性受限,以及知识转移和积累方面的挑战。人工智能技术显著提高了快速预测和模式挖掘能力,促进了设计参数与性能指标之间精确映射关系的建立。因此,整个设计空间的智能优化能够有效生成满足性能标准的设计方案。在这种方法的应用中,已经在多个设计场景中取得了显著进展。目前,人工智能技术在超音速飞机设计周期中的集成主要分为两种方法,取决于飞机整个流动路径中气流分布的位置:超音速飞机的乘波体配置的外流设计;以及超燃冲压发动机的进气道、燃烧室和喷管的内流设计。
基于以上内容,超音速飞机/发动机的设计涉及强烈的多学科耦合、众多设计参数、显著的非线性以及性能特征之间的相互约束。利用人工智能进行基于数字孪生的设计能够提高迭代速度,并具有显著的工程价值。本节主要总结和分析人工智能在乘波体配置、发动机进气道、燃烧室和喷管的多目标/多学科优化中的应用。 乘波体(waverider)是超音速飞机外部流动部分的典型结构设计,当其位于飞机机头时,能够显著减少其他外部流动动力学对进气道的影响,尤其是在超音速飞行条件下。进气道的形状、激波面(shock wave face)以及附着边界层(boundary layer)直接影响进气道的整体性能、起动性能以及发动机的推重比特性。 乘波体配置的传统设计过程包括设定波前面(shock wave face)轮廓,在此基础上求解超音速基线流场,并根据前缘曲线反向推导出乘波体压缩面(compression surface)的几何形状。 传统的乘波体设计方法从简单的激波面轮廓发展到复杂的激波面形状,扩展了设计空间并提高了实用性。然而,这些传统方法面临着与设计空间和性能评估相关的重大挑战。由于难以预评估激波面形状的真实性,导致设计空间复杂化,并且在反向设计过程中,乘波体的性能无法直接计算,这使得性能评估变得更加困难。此外,使用传统计算流体力学(CFD)进行大规模数值模拟需要大量的计算资源,以评估不同的设计配置。对工程技术专家在配置调整和迭代设计过程中的高度依赖,严重限制了乘波体配置的设计灵活性。因此,亟需一种快速高效的方法来优化乘波体配置并评估其性能。 随着人工智能技术和高性能计算的发展,准确高效地预测乘波体性能变得可能,为乘波体设计过程中的固有挑战提供了关键解决方案。关于机器学习辅助的乘波体配置优化,已有大量研究工作。Chen等人致力于优化由圆锥导出和切线圆锥乘波体的升阻比、体积和体积效率。他们采用NSGA-II算法,在马赫数为10的条件下进行了多目标优化,成功地实现了帕累托前沿。该方法有效地解决了针对单一目标优化乘波体配置的挑战。在马赫数为20的高马赫条件下,Graves通过创建流量捕捉管和激波曲线,设计切线圆锥乘波体,并构建了设计空间。他们建立了升阻比和体积效率的加权优化函数,从而实现了性能最优的乘波体配置。此外,Zhang等人设置了前缘曲线,并采用了流线追踪技术生成乘波体的初始配置。他们通过将神经网络与顺序二次规划(SQP)方法相结合,进行了多目标优化,重点优化了升阻比、体积和表面积。优化结果显示,升阻比减少了5.375%,体积效率提高了49.79%,表面积增加了19.39%。优化前后乘波体的配置如图25所示。 图25. 多目标优化的初始形状(a)与优化后的形状(b) 对于乘波体配置的航天器,Lobbia和Suzuki采用了分阶段优化方法,结合单纯形法和遗传算法,获得了多个外形相似的全球最优配置,重点关注整体结构质量和燃料储备。为了解决三维超音速基本流场问题,Liu 等人提出了基于多网格的点搜索方法,并建立了乘波体的快速设计方法。通过基于 B 样条和遗传算法进行多目标优化,重点优化乘波体的升阻比和体积效率,最终达到了帕累托前沿,使设计人员能够根据设计需求选择合适的配置。Guo 等人将圆锥形流场与前缘曲线方程相结合,建立了一个钝化的乘波体模型,解决了当前乘波体设计中未考虑前缘钝化效应的问题。他们使用符号回归方法构建了乘波体钝化效应所引起的压力增量模型,并在马赫数 15 和 50 公里高度的设计点上,利用遗传算法进行了优化。与锐利前缘模型相比,前缘半径为 20 毫米的钝化乘波体的升阻比性能提高了 27.4%。Qu 等人结合基于梯度的 SQP 方法,对乘波体在宽速度范围内进行多点优化设计,快速有效地提高了其气动性能,解决了宽速度范围条件下的乘波体设计问题。经过优化,乘波体的配置在亚音速条件(马赫数 0.4)下升力提高了 6.7%,升阻比提高了 7.1%。在超音速条件(马赫数 5)下,升阻比提高了 1.4%,优化前后乘波体周围的流场如图 26 所示。Liu 等人聚焦于最大化升阻比参数,采用带有体积效率、俯仰和纵向稳定性约束的遗传算法,以找到最佳的乘波体配置,解决了圆锥型乘波体纵向稳定性差的问题。CFD 数值计算表明,考虑这些约束条件下的最优配置使最大升阻比提高了 2.07%。此外,Son 等人提出了一个判别公式来确定乘波体设计参数的真实性,并引入了基于 osculating-cone 模型的乘波体新型直接设计框架,如图 27 所示。该框架结合了数据挖掘方法,以捕捉乘波体的一般特征,重点关注乘波体的阻力和体积作为目标参数,利用代理模型辅助进行多目标优化设计,快速获得满足目标要求的 osculating-cone 乘波体配置,从根本上解决了乘波体设计过程中的设计空间定义不准确和性能评估不可行的问题。 图 26. 宽速度范围乘波体优化前后的空间流场轮廓。 在空间流场等值线中,考虑粘性效应后的原始配置在前缘处出现了溢流。而优化后的配置则将高压流体泄漏限制在背风侧,特别是在图 22(b) 中虚线所包围的底部区域附近。框架展示了乘波体直接优化框架中的三个模块,分别是:(1) 问题定义;(2) 乘波体逆向设计;(3) 模型构建。 因此,目前的乘波体设计结合了机器学习和智能优化方法,保留了传统的逆向设计方法,即定义前缘曲线并求解基线流场,同时结合流线追踪技术来获得乘波体配置。在解决上述问题时,传统乘波体逆向设计中的两个关键问题涉及:对前缘曲线进行参数化以建立流动捕获管,提取和确定关键设计参数及其范围,以及建立准确的设计空间。同时,基于机器学习方法,构建设计空间与乘波体关键指标之间的映射关系,以实现对给定设计参数下乘波体性能的高效评估。在此基础上,集成智能优化方法,优化并选择能够在设计空间内实现最佳性能指标的乘波体设计方案。 进气口被称为超音速飞机的“呼吸道”,并且通常与乘波体在统一设计中进行集成。进气口的性能是限制超音速飞机整体性能的关键因素,不仅影响推进系统的效率和稳定性,还对飞机的外形设计和空气动力学特性产生重要影响。进气口包括二维、轴对称、侧壁压缩和内转流动等类型。与采用轴对称外压缩或二维平面压缩的进气口不同,内转流进气口采用内收缩流场进行压缩,其具有捕获流量高、压缩效率高、渗透面积小、超设计点性能优越、适应性广等优点。 传统的进气口设计方法可分为两种:第一种方法是根据进气口喉部的性能指标(例如二维进气口设计),直接设计进气口的三维形状;第二种方法则是先设计并求解高性能的参考流场,然后结合进气口和出口的轮廓以及流线追踪技术推导出进气口的三维配置。第二种方法主要用于内转流进气口的设计。传统的进气口设计方法在准确构建设计空间和实现快速高效的性能评估方面也存在困难。它们过度依赖工程经验、风洞试验和数值计算,导致设计周期长、成本高。 人工智能技术在快速预测和规则挖掘方面的显著优势为进气口设计提供了新的方向。机器学习算法能够从大量的测试数据和仿真结果中学习并提取规则,帮助设计师快速生成最优的进气口配置。这些工具显著缩短了设计周期,并能够根据设计需求实时调整参数,成为高效且智能的辅助设计工具。Chen等人采用SQP、多岛遗传算法、.multi-objective GA和邻域繁殖遗传算法(NCGA)优化了Mach 7巡航条件下二维进气口的单目标和多目标设计。根据他们的结果,NCGA比NSGA-II实现了更广泛分布的帕累托前沿,揭示了总压恢复系数、压力比和阻力系数之间的权衡。Ogawa和Boyce基于遗传算法对四个进气口指标进行了多目标设计优化:压缩效率、阻力、反向压力梯度和出口温度。结果表明,进气口可以采用解耦设计方式。此外,如果在燃烧室入口处指定最小温度,那么作为目标函数的进气口阻力最小化并不是必要的,从而简化了整个超燃冲压发动机设计过程。 Wang等人结合Kriging模型和NSGA-II算法,建立了变几何进气口的多点多目标优化设计框架。优化结果表明,Mach 3下总压恢复系数(TPR)提高了21.36%。在Mach 5条件下,总压下降了6.54%。风洞测试和CFD仿真表明,优化配置在设计点的TPR系数达到0.421,并且进气口在较宽的速度范围内稳定运行。Xu等人也将Kriging模型应用于变几何进气口设计,并进行多目标优化以获得帕累托解集。优化配置的目标优于初始配置,显著改善了进气口性能参数。Brahmachary等人利用NSGA-II算法结合高保真CFD计算,针对轴对称超燃冲压发动机进气口进行了Mach 7.7/30 km和Mach 10/33.5 km高度下的多点多目标优化设计。 Brahmachary和Ogawa结合CFD开发了一种代理辅助进化算法,用于在Mach 7.7和Mach 10下对Busemann进气口进行单点和多点粘性多目标优化设计。单点无粘优化结果表明,通过最小化阻力并最大化压缩效率得到的非支配解与通过最大化总压恢复系数并最小化静压比得到的解大致相同。多点粘性优化结果表明,最佳设计方案保留了无粘完全Busemann进气口在高压缩效率、短进气口长度、高静压和高平均出口温度方面的优势。Brahmachary等人对由Busemann、三段坡和光滑Bezier曲线生成的超燃冲压发动机进气口进行了多目标优化设计,以获得最优设计方案。Gao连续伴随方法引入进气口优化中,优化前后的流场如图28所示。优化设计实现了在进气口唇部的激波封闭,外部压缩面上的最大 法向位移为5.6 mm,进气流量提高了6.3%,增强了整体性能。优化结果表明,伴随方法可以高效地应用于进气口的优化设计。 图28. 优化前后流场图像。优化前,气流由于边界层的影响发生偏移,导致唇部发生溢流。优化后,基本实现了完全的流量捕获。 Fujio和Ogawa提出了一种基于代理模型的进化算法,用于研究轴对称进气道的多目标优化,旨在同时实现高压缩效率、最小阻力和出口流动均匀性,在无粘状态下获得Mach 7.7下的最佳帕累托前沿。通过优化进气道设计参数获得的流场与Busemann进气道的流场进行了详细比较,如图29所示。最终,得到了最大压缩效率和最小阻力的全局最优解,并定量讨论了压缩效率与流动均匀性之间的关系。进气道内反射的圆锥形激波的存在对于同时实现高压缩效率和流动均匀性至关重要。因此,Fujio和Ogawa提出了结合深度学习与智能优化技术的设计方法,通过遗传算法(GA)和序列二次规划(SQP)引导的性能方法,探索满足所需出口流量和静压比的进气道几何形状。 图29. 多目标优化后进气道马赫数分布与Busemann马赫数分布的比较 Ma等人提出了一个动态多目标优化设计框架,通过利用Kriging代理模型辅助改进的拥挤距离多目标粒子群优化(ICD-MOPSO)算法,来优化内转进气道参考流场。该方法解决了当前进气道优化设计对大样本需求以及性能预测模型的泛化能力较弱的问题。优化结果显示,进气道在表面积和阻力最小化的同时,实现了超过95%的总压恢复率。基于150组样本建立的动态性能代理模型的预测误差平均绝对百分比误差(MAPE)小于1%,且性能参数优化相比静态多目标优化结果提高了8%以上。基于ICD-MOPSO和聚类算法的Pareto前沿结果如图30所示。 图 30. 基于ICD-MOPSO和聚类算法的帕累托前沿。使用K均值方法对帕累托前沿进行聚类分析,得到5个聚类,并获得7个具有代表性的帕累托解。 机器学习替代模型方法及智能单目标和多目标优化方法的多样性和形式,为在高维设计空间中快速进行性能评估和全设计空间内的最优配置搜索奠定了坚实基础。克里金模型的高效全局与局部特征提取能力,以及NSGA-II算法的良好的全局搜索性能和收敛速度,使得克里金模型辅助的NSGA-II方法在进气口性能指标的全空间设计优化中得到广泛应用。进气口性能的替代模型采用了深度学习、神经网络、RBF等方法。此外,基于梯度的优化和粒子群优化(PSO)算法在进气口优化设计中的研究与应用,展示了人工智能技术在进气口设计领域中的可行性和效率。 超音速燃烧室通过将燃料与氧化剂混合并燃烧,产生高温高压的燃烧气体,这些气体以超音速通过燃烧室,并释放大量热能,为航天飞行器提供推进力。在燃烧室内,气流速度通常从数百米每秒到数千米每秒不等,给燃烧过程中的油气混合、点火、火焰稳定性和传播等问题带来了挑战。因此,有必要对燃烧室中涉及的各个方面进行优化设计研究,以确保其优异的性能。本研究回顾了燃烧室中腔体、燃料喷射、支撑结构等多种方法的优化研究进展,分析并总结了智能优化技术在这些方法中的作用,并展望了人工智能在未来冲压喷气发动机燃烧室研究方向中的应用前景。 近年来,腔体作为火焰稳定器,在冲压喷气发动机燃烧室中表现出了显著的优势。许多学者对燃烧室腔体的优化设计进行了研究。其中,针对腔体引起的额外阻力和极高壁面温度问题,Huang等人采用了非支配排序遗传算法II(NSGA-II)与克里金替代模型相结合的方法对燃烧室进行了优化。结果表明,存在阻力和面积加权平均温度之间的权衡。理解燃料喷射与腔体对流动特性的耦合效应也是至关重要的。Wei等人利用AS方法定量确定了在不同燃料喷射量和腔体几何参数下,流动与火焰稳定性之间的内在关系。研究结果表明,燃料喷射压力、腔体长宽比和腔体深度是影响总压损失的主要因素。然而,腔体驻留时间主要受腔体深度的影响,如图31所示。 图 31. 总压损失、驻留时间、热交换率和活跃变量与输入变量之间的关系。 燃料必须充分雾化,以便在超音速流动中与空气在分子尺度上混合,从而实现完全燃烧。Ogawa、Ogawa和Boyce采用了一种先进的设计方法,将计算流体力学(CFD)与替代模型辅助的进化算法相结合,以解决冲压喷气发动机进气道中,马赫数为5.7时,燃料喷射在初始压缩后的多目标优化问题。优化结果通过统计方法进行评估,采用全球灵敏度分析和替代模型来识别与三个设计目标及其他性能指标相关的关键设计因素。研究发现,在恒定燃料喷射压力和化学当量空燃比下,跨程间距对总压恢复系数、燃料穿透距离和横向扩散有显著影响。 Yan 等人采用范围和方差分析方法探索了超音速喷射与横向气流场的数据,确定了喷射与横向气流之间的压力比是超音速喷射与横向气流场中最关键的因素,其次是喷射角度。Yang等人将每个喷射口的燃料当量比作为设计变量,选择燃烧效率、总压恢复系数和阻力系数作为目标函数。结果表明,总燃料当量比和燃料分配方案显著影响这三个目标函数。此外,这些目标函数无法同时达到最优解,因此需要在它们之间进行权衡。Ahuja[345]提出了一种新颖的方法,将遗传算法(GA)与计算流体力学(CFD)相结合,形成自动化集成优化框架,最终实现了更好的总压比和混合效率,验证了该方法的有效性。 Huang等人采用了非支配排序遗传算法II(NSGA-II)与克里金替代模型相结合的方法,优化了自由流3.5马赫下的横向喷射流场。在多目标优化设计过程中,发现了帕累托前沿。研究发现,喷射穿透深度与总压损失存在矛盾关系:穿透深度越大,总压损失越大。同时,混合效率存在一个最优穿透深度,如图32所示。前人利用基于替代模型的进化算法优化了方形喷射口的横向喷射流场,并采用方差分析方法探讨了设计变量与目标函数之间的关系。研究结果表明,喷射与横向气流的压力比显著影响总压恢复系数,喷射口数量显著影响阻力性能,且随着喷射口数量的增加,阻力增大。为了降低CFD算法分析燃料-空气混合原理的高昂成本,Payne等人采用JETPEN显著减少了优化冲压喷气发动机燃料喷射阵列设计所需的复杂、昂贵的分析次数。他们将横向喷射阵列的设计问题进行了建模,并分两阶段进行设计优化。结果表明,通过仅评估159次函数,微型遗传算法发现了接近最优的设计方案。 在燃烧室内形成回流区能够保持超音速流场中燃料的稳定燃烧。回流区中产生的大规模涡流将燃料以适当的间隔输送到燃烧区,增强了混合过程并建立了稳定的燃烧区。由于支撑结构可以安装在燃烧室的任何位置,并且能够定制燃料喷射位置,因此使用支撑结构构建回流区已成为广泛研究的主题。因此,Kumar等人采用了克里金和数值模拟方法,研究了具有三个支撑结构的燃烧室的优化设计,该设计与DLR冲压喷气发动机中的设计类似。通过使用克里金替代模型和复杂盒子算法,优化后的案例在燃烧效率和推力方面分别提高了44.89%和37.87%,以及9.18%和10.38%。 Candon和Ogawa提出了支撑结构燃料喷射方案的单目标设计优化结果,在他们的设计优化研究中选择了喷射器位置、楔角、喷射压力和径向喷射器位置作为决策变量。他们观察到,由于空气动力学和燃烧的综合效应,推力显著增加。Ispir等人深入研究了多种板形配置参数对三个目标函数(混合效率、混合长度和总压恢复系数,见图33)的影响。然后,将通过人工神经网络(ANN)预测的混合效率模型与降阶工具相结合,用于计算高超音速发动机的推力,结果误差小于10%。 Li 等人研究了一种智能支撑结构设计方案,以实现在大流量条件下燃烧室中的高性能燃烧。与传统的DLR燃烧室相比,优化后的燃烧室燃烧效率提高了8.22%,而燃烧力减少了66.12%。 对于进行高超音速飞行的飞机,超高温和超高压的极端条件在长时间作用下要求飞机动力系统具有卓越的热保护性能。为应对这一挑战,Jiang Qin等人提出了一种新的再生冷却循环,用于冲压喷气发动机,以最小化燃料冷却流量。通过重新利用燃料散热器,间接增强了燃料的散热能力。研究结果表明,冲压喷气发动机燃烧室底部的襟翼导致了两侧流动涡流的产生。Li等人利用由3D RANS方程和2D k-omega SST湍流模型预测的九个条件,并结合极值差异分析方法进行参数分析。结果表明,极值差异分析方法能够有效地推导出在横向氢气喷射条件下冲压喷气发动机燃烧室襟翼的最优策略。Ahuja将遗传算法(GA)和计算流体力学(CFD)应用于冲压喷气发动机燃烧室结构的自动化集成优化。总压恢复系数(TPR)和混合效率的提升验证了该方法的有效性。 Moresh 等人通过稳态和非稳态湍流燃烧数据的协同克里金(Co-Kriging)优化了燃烧室设计。他们发现,协同克里金策略的表现未能超越仅依赖高保真数据的克里金策略。 Ahuja和Hartfield提出了一种基于遗传算法(GA)优化冲压喷气发动机燃烧室几何形状的燃烧室性能量化方法,重点关注连续性和动量。与实验基准相比,混合效率提高了超过42%,总压恢复系数提高了0.68%。 近年来,冲压喷气发动机燃烧室AI优化设计的进展包括采用机器学习和深度学习方法,快速高效地优化燃烧室的喷射、回流区和支撑结构设计。这些方法成功地提升了燃烧室的性能并优化了其结构。目前,智能优化设计面临的主要挑战包括冲压喷气发动机燃烧室复杂多变的工作条件、燃烧室结构的非线性特性以及多物理场耦合问题。 作为提供推力的关键部件,喷管引起了广泛关注,特别是在马赫数大于6的应用中,喷管约占整个推进系统净推力的70%。Rao提出了一种基于变分法的最大推力喷管设计方法。然而,所得到的喷管长度过长,无法满足工程应用中飞机的几何约束。随后的研究集中在最短长度喷管设计方法和截断方法上。随着喷管设计参考数据的积累,学者们开始探索人工智能在喷管设计优化中的应用。 由于高复杂性和高成本的限制,获得超音速风洞实验数据常常面临挑战。然而,人工智能方法被应用于高效获取尾喷管流场数据,从而减少了与风洞实验相关的成本。Yu等人利用计算流体力学(CFD)结果预测风洞实验结果。在单扩展斜坡喷管的启动和停机过程分析中,采用了一维卷积神经网络(1D CNN)建立了风洞结果与CFD结果之间的关系模型,为克服风洞实验中数据获取的挑战和局限性提供了可行的解决方案。一些学者还应用AI方法,基于CFD数据实现了设计参数与数值流场的快速预测。此外,Zanjani等人采用深度卷积神经网络(CNN)预测喷管内部的超音速流场,引入并验证了一种新的超音速流场分析和设计方法。该方法可以在保持相同推力水平的情况下,将喷管长度减少40%。喷管内的压力分布影响推力、升力、俯仰力矩和气流分离。Yu等人提出了一种基于CNN的高效喷管反向设计方法。该反向设计框架如图34所示,直接从所需的壁面压力分布中获取喷管配置,同时考虑了反向设计模型的准确性和平滑性。这些学者探索了深度卷积神经网络强大的高维非线性拟合能力,帮助喷管设计,为喷管创新提供了新的视角。 一些学者预计通过机器学习构建高精度的喷管性能代理模型,以促进设计参数和喷管性能的快速预测。Ogawa和Boyce利用代理模型辅助的进化算法优化了轴对称超音速燃烧室喷管在两种高度(27 km和32 km)下的喷管配置形状,在Ma = 8的巡航条件下,分别考虑有燃料和无燃料的情况。优化后喷管的马赫数场如图35所示。通过在非设计高度下交叉验证最优几何形状,证明了优化喷管在推力生成方面的鲁棒性。Zhu等人采用Kriging代理模型和NSGA-II优化算法,通过代理优化三种设计变量:喷管排气压力比、保持的初始扩展比和平均压缩比,找出帕累托最优前沿,以推力和升力作为目标函数。结果表明,优化后的喷管配置满足均匀流动的长度、推力和升力要求。为了进一步提高代理模型的预测精度和泛化能力,采用机器学习方法构建了更加精确的代理模型,从而能更精确地确定喷管的设计参数。Tong等人创新性地将核极限学习机(KELM)与灰狼优化(GWO)结合,开发了喷管性能的代理模型。GWO-KELM模型成功地实现了喷管设计变量与喷管性能之间的快速映射。该模型被用于研究设计参数对喷管性能的影响,为喷管设计提供了宝贵的指导。图36展示了喷管推力和出口马赫数对设计变量变化的响应。Govinda等人利用径向基函数神经网络(RBF)对给定几何变量的CFD结果进行了训练和测试,得到一个元模型。该元模型用于通过基于教学-学习优化算法推导出喷管的优化轮廓参数。研究结果表明,优化喷管配置的推力比基线配置增加了16.7%。Ju等人提出了一种利用能量沉积增强超音速发动机喷管气动性能的新方法。该方法的核心是在流场内创建一个加热区域。在Ma = 6的飞行条件下,将非支配排序遗传算法与RBF神经网络代理模型相结合,确定了能量沉积的最优位置和密度。结果表明,优化后的推力系数增加了1.94%,而升力系数减少了15.02%。 Fig. 35. 马赫数分布。(a) 基线(27 km);(b) 最优(27 km);(c) 基线(32 km);(d) 最优(32 km)。Fig. 36. 设计变量对性能的影响。(a) L 和 Ho 的响应面;(b) a₁ 和 λ₁ 的响应面;(c) a₂ 和 λ₂ 的响应面;(d) R 和 a₁ 的响应面。 总之,随着人工智能技术和高性能计算的进步,“数字双胞胎”和“多学科优化设计”在航空航天科学与工程中的飞机结构设计中得到了广泛应用。“数字双胞胎”通过深度挖掘样本数据中包含的关键模式,构建“物理实体”的“数字实体”,实现特征描述和“物理实体”的快速预测。这极大地提高了系统性能评估的效率,并降低了计算成本。此外,“多学科优化设计”整合了多个学科的特点和优势,侧重于具有航空航天领域独特特征的结构模型,并融合高度兼容的智能优化策略,有效实现满足设计需求的最优设计方案,从而为研究人员提供系统设计决策支持。与传统的设计开发系统相比,基于性能指标的机器学习辅助智能优化是飞机研发系统的发展趋势。 本研究全面回顾了人工智能算法在超音速流动和燃烧应用中的机遇,主要聚焦于新兴的“AI + 燃烧空气动力学 + 高性能计算”方法,该方法将传统理论模型与数据挖掘相结合。这种集成方法是吸气式高速度推进系统中最具活力的领域之一。本研究还简要概述了AI算法在湍流燃烧建模、多物理场重构、预测和优化设计中的应用。此外,还详细讨论了这些应用所涉及的优点和局限性。近年来,深度学习和数据科学的进展凸显了结合“数据 + 物理知识”的集成建模框架的重要性,从而推动了在数值仿真平台中提升吸气式高速度推进系统的数值智能化。
(1) 机器学习方法已被广泛应用于湍流模型的不确定性量化、参数识别以及代理模型的构建。然而,目前的研究主要集中在低马赫数和外流条件下。未来的研究需要关注高马赫数和内流条件,利用测试数据识别关键特征,进行信息融合,并结合数据驱动的方法,开发能够准确模拟冲击波/边界层干扰、横向喷流行为以及燃料混合过程的自适应统一湍流模型。这一改进将提高湍流模型在复杂分离流动中的适应性和预测准确性。
(2) 当前的简化燃烧反应动力学模型难以准确计算广泛反应条件下的燃烧特性,并且计算负担仍然较大。简化的机器学习方法主要集中在零维和一维情境下,对于高维燃烧计算的改进有限。基于机器学习的计算目标函数,超音速流动和燃烧的简化反应动力学模型有助于解决工作条件覆盖面狭窄的问题。一些研究引入了物理信息神经网络(PINN)来构建湍流燃烧的代理模型,其中物理信息的加入有效约束了神经网络的训练过程,使其能够建模复杂的湍流运动,并准确预测燃烧过程中的关键变量。PINN在高精度湍流燃烧建模中的关键在于挖掘物理变量之间的耦合关系,设计合适的神经网络结构,并采用适当的数据集空间约束预处理方法。 (3)现有的超音速流动和燃烧流场壁面压力重构与预测方法在关键波系演化方面展现了较高的准确性。然而,在湍流和激波/边界层相互作用等区域仍需改进。未来,结合壁面阻力和热流等空间离散测试数据进行信息融合可能是必要的。此外,基于物理信息深度学习的超音速流动和燃烧的快速多物理场预测方法仍然是一个重要的研究方向。这种方法可以显著加速CFD数值模拟的计算速度。然而,目前大多数工作仅考虑了流动机制,忽视了复杂化学反应、边界层干扰特征和湍流模型参数的影响。需要根据不同工况下多个物理场的特性量化深度学习模型的不确定性,并有针对性地引入物理规律和先验知识。 (4)结合“数字孪生”和“多学科优化设计”的空气动力推进系统逆向设计可以缩短设计迭代过程,并提高设计方案的性能。然而,现有基于传统机器学习模型的多目标优化设计存在严重依赖样本数据、缺乏物理可解释性以及模型通用性差的问题。同时,当前的优化设计框架过于简化,缺乏高性能设计空间的深入探索和聚焦,导致优化过程的随机性较强且整体设计效果较差。随着模型从“传统经验设计”转变为“预测优化设计”,我们必须在后续研究中发展以物理信息为导向的迁移学习方法和框架。结合空气动力学特性,准确把握气体压缩和湍流燃烧过程中的复杂物理与化学过程,可以减少对样本数量的需求,并提高智能预测模型的泛化性能。同时,设计过程中需整合多种优化策略,以增强智能优化算法在种群初始化和优化迭代过程中跳出局部最优解的能力。此外,需要根据设计需求构建非常规优化框架,旨在优化过程中搜索并定位高性能设计空间,聚焦于全局最优位置,从而提高优化迭代的鲁棒性。 (5)现有的超音速流动和燃烧数值模拟平台基于大量来自地面风洞实验、数值模拟和飞行试验的数据应用。人工智能在湍流燃烧建模、多物理场快速预测、优化设计等方面的应用,已与开源人工智能软件和大规模异构并行CPU/GPU技术充分结合。构建高效模拟和优化设计空气动力高速推进系统的大规模AI产业模型具有重要的工程价值。
翻译转自《Progress in Aerospace Sciences》“Progress and prospects of artificial intelligence development and applications in supersonic flow and combustion”