首页/文章/ 详情

JCP:最新多相界面数值处理方法 — 多相流尖锐界面追踪方法综述

7月前浏览5261

本文摘要:(由ai生成)

本文综述了模拟多相流和自由表面流动的数值方法,重点介绍了虚流体和Voronoi界面等界面处理方法,并探讨了自适应网格改进技术和并行计算方法的应用。这些方法已成功应用于多个领域,包括艺术领域的计算机图形学。此外,文章还展望了机器学习和深度学习在多相流模拟中的潜在应用。多相流模拟涉及空化、金属凝固等复杂现象,本文所提方法为解决这些问题提供了有力工具,对推动多相流研究具有重要意义。


本文综述了模拟多相流和自由表面流动的数值方法,特别关注能保持跨界面相不连续性质的数值方法。本文讨论了虚流体(Ghost-Fluid)方法和Voronoi界面方法,这两种方法在处理表面张力时,可以避免严格的时间步长限制。此外,本文还探讨了自适应网格改进技术的效率以及并行计算方法的应用。最后本文展示了使用这些方法在二维和三维空间中获得的一些模拟结果。后续还将讨论机器学习和深度学习技术在多相流中的应用,提出利用深度学习来加强多相流研究和模拟的一些未来潜在的研究方向。         

引言  

多相流在物理和生命科学中无处不在,其模拟也广泛应用于多个领域。其中,关键的模拟案例包括研究船舶工业中的空化现象、了解大多数金属的凝固过程、分析核电站中的沸腾流动、探索新的表面活性剂和液体进入肺部的机制、预测石油和天然气操作中的多孔介质流动等。此外,在艺术领域,模拟也被广泛应用于计算机图形学中,以产生逼真的流动效果。  
模拟多相流面临诸多挑战。首先,要追踪不同相之间的界面,这一界面随时间不断变化,并可能经历拓扑结构的演变。其次,一些关键物理量,如流体的密度、速度或压力,在介观和宏观尺度上可能会发生剧烈变化,因此数值方法必须强制实施相应的表示。最后,考虑到多相流的多尺度特性,在某些流体区域可能会出现精细的特征,同时计算资源也有限,因此我们需要考虑在自适应网格和并行架构上采用数值方法。  
早期关于多相流处理的研究可以追溯到Peskin的浸入边界法工作[103、102]。尽管这些方法并没有直接考虑多相流本身,但它们利用离散的δ-函数来求解浸没弹性界面中的血液流动,这为将偏微分方程在矩形区域的离散化推广到任意区域奠定了基础。Unverdi等人在此基础上将该方法与界面追踪技术相结合,提出了多相不可压缩流求解器。这种方法允许相与相之间的界面发生大变形,包括拓扑结构的变化。在[129]和[19]中,作者采用了水平集方法来捕捉界面运动,而不是传统的追踪方法,从而减轻了对拓扑变化处理的复杂性。然而,虽然前向追踪和水平集方法能够以尖锐的界面表示方式呈现,与相场模型中将相间界面表示为数值糊状区不同,使用δ-函数公式仍然会平滑掉整个界面上的物理量。在这项工作中,我们重点关注“尖锐”界面方法,即那些在数值上能够保留不连续量中不连续性的方案。  
下面考虑一个计算域Ω=Ω-∪Ω+,其中Ω-和Ω+被一个Γ界面隔开。流体的运动由不可压缩的Navier-Stokes方程来模拟:
其中,t是时间,u=(u,v,w)是速度场,p是压力,f包含了例如重力的表面力。本例中在子区域Ω-+,我们认为流体具有均匀的粘度μ和密度ρ。在计算域边界上和边界上施加适当的边界条件被施加在边界Γ以及计算域的边界 。这些将在本文的剩余部分进行详细的讨论。  
求解这些方程的框架是Chorin在1967年提出的标准投影方法[20],它由以下三个步骤组成。利用动量方程(1)并忽略压力梯度项等计算一个中间速度场,同时时间导数用向前欧拉步离散:
第二步是基于Helmoltz-Hodge分解,即分解一个二次连续可微的有界向量场分解成一个无散度分量 和无旋度分量
其中,指Hodge变量,对于 施加不可压缩性约束可以得到一个的方程: 
边界条件以及如何施加它们将在整个手稿中描述。
在第2节中,我们回顾了水平集和粒子水平集方法;在第3节中,我们讨论了水平集方法在四叉树/八叉树笛卡尔网格上的并行以及如何求解自由表面流;在第4节中,我们讨论了求解多相流的数值方法;第5节聚焦于自由表面流动,最后给出一个简短的结论。

表面追踪与捕获的对比  

利用无质量粒子可以实现相间界面的显式表示(如前向追踪)[42,43,57,58,135]。由于粒子坐标可以高精度地更新,显式方法提供了非常精确的界面演化。另一方面,拓扑结构的变化也需要显式地处理,这增加了这些方法的复杂性。内隐表征以直截了当的方式处理拓扑结构的变化。在多相流背景下,使用最多的隐式方法是流体体积法(Volume of Fluid,VOF)[92,10,9,24,51]、流体矩量法[27]和水平集方法[95,94,120,121,39]。隐式方法将相间界面表示为连续函数(在VOF情况下为一相所占单元格的分数,或在水平集方法情况下为Lipschitz连续水平集函数)的一个等式。VOF方法通过构造保证了质量守恒,但它对界面的不连续描述使得几何量(界面法向,界面曲率等)。的计算变得困难,尽管我们指出Sussman [128]的工作试图耦合水平集和VOF方法。水平集表示法可以精确地计算几何量,但不能保证质量守恒,除非使用精细的网格。为了解决这个问题,引入了两种互补的方法:使用无质量粒子来补充水平集表示和使用自适应网格。在这篇综述中,我们关注粒子水平集方法[31]和自适应八叉树笛卡尔网格上的水平集方法[75,76,85]。
01 水平集方法
给定计算域Ω和分离开内部Ω和外部Ω+子域的界面Γ:Ω=Ω∪Ω+。水平集借助Lipschitz连续函数φ来描述不同的区域:
根据该表示,界面的外法线n和平均曲率κ表示为:
两个主要方程是:在给定速度场u下演化水平集函数;
并且将任意函数变换成带符号的距离函数,即满足|∇φ|=1的函数。虽然最后一个方程可以通过快速方法(包括其并行对应物)直接求解,例如快速推进法[119,136,18]或快速扫描法[143,25],但也可以通过求解以下方程将任意水平集函数φ0转换为带符号的距离函数:
在伪时间τ内。在最后一个等式中,Sign是指signum函数。  
在数值上,由于水平集函数在附近是光滑的,所以我们一般使用中心差分来逼近法线和平均曲率。在一般情况下,方程(6)在时间上用一阶导数的HJ-WENO近似的Godunov格式[56]和三阶TVD Runge-Kutta格式[122]逼近。在u与φ无关的情况下,不会发生激波和稀疏现象,我们往往首先选择使用半拉格朗日方法,因为此时只有精度限制时间步长。重新初始化方程总是用Godunov格式求解。
02 粒子水平集方法
粒子水平集方法[31]的中心思想是引入分别位于φ>0和φ<0区域的正负粒子,并使用它们来校正水平集方法中固有的质量损失。每个粒子都有一个半径rp,定义如下:
其中sp对于正粒子为+1,对于负粒子为-1,rmin=.1min(Δx,Δy,Δz), rmax=.5min(Δx,Δy,Δz).它们的动态特性由dx/dt=u描述,使用多线性插值在时间上向前积分(通常使用三阶TVD龙格-库塔方案)以在正确位置定义u  
一旦水平集函数和粒子迭代了一个时间步长,逃逸的粒子(例如φ<0区域中的正粒子)被用于校正水平集函数中的任何错误。具体而言,对于每个粒子p,人们将球面水平集函数与半径rp相关联:
在当前计算单元的八个角中的任何一个角上,φ与φp的任何差异都表明水平集解中可能存在错误。通过将φ变为φp及其自身的最小绝对值来进行校正。  
实现细节:通常,在两个空间维度中每个栅格单元使用16个粒子,在三个空间维度中使用32个粒子。此外,为了保持平滑的界面,从界面的适当侧删除半径大于其半径1.5倍的逃逸粒子。图1中给出了一个例子,感兴趣的读者可以参考[31,32],以获得关于粒子水平集方法的更多细节。

自适应笛卡尔八叉树/四叉树网格  

一般情况下(湍流要求网格大小与Re9/4成比例,Re为雷诺数)特别是多相流,在出现不同长度尺度的问题时,需要自适应网格来进行数值仿真,因为相间界面可以延伸成很薄的特征尺寸。图2给出了案例,其中一种流体推动另一种粘度更高的流体,导致粘性指进现象。
基于四叉树/八叉树数据结构的自适应网格特别方便,因为它们可以实现连续的变化细化。此外,在捕捉界面方法(如水平集方法)的背景中,网格的构建是简单、快速的,因此可以在每个时间步进行适应,而不需要太多的计算量。自适应性也有效地解决了水平集方法中的质量损失问题,因为在传播前沿附近可以使用更高的分辨率,而不需要在整个计算域中使用这种精细程度。图1(右)给出了三维空间中的Enright测试示例,说明质量损失可以忽略不计,并且可以分辨薄板流动结构[85]。
在自适应笛卡尔网格而不是均匀网格上离散Navier-Stokes方程,由于存在T型网格点(即在笛卡尔方向之一上缺少一个邻居的网格点),因此会增加一些复杂性。此外,为了保证数值稳定性,有必要定义梯度和散度算子的离散化,使其在离散过程中保持∇=−(∇·)T关系。标准的MAC网格排列提供了一种保证此类约束的直接方法,尽管其他一些工作已经考虑以基于节点的方式求解Navier-Stokes方程[84]。  
例如,Popinet通过引入压力方程(5)的离散化,使用八叉树网格离散化Navier-Stokes方程[104],这导致了一个非对称的线性系统。Losasso等人引入了一个Poisson方程的对称离散化,并将其应用于无粘性Navier-Stokes方程[76]。图3给出了一个模拟的示例,其中使用Navier-Stokes方程对流标量量(烟雾密度)进行平流,可以进行渲染,并应用于自由表面流的情况。在这项工作中,仅使用数值粘性来模拟粘性效应。后来,Losasso等人[75]在八叉树上引入了一个Poisson求解器,该求解器可以产生二阶精确解,同时保持线性系统的对称正定性。最后,Guittet等人使用该求解器求解Navier-Stokes方程,并引入了一种基于Voronoi剖分的考虑粘性应力张量的方法。


01 一阶精确泊松求解器
考虑一般的单元配置,其中一个计算单元与较小的计算单元相邻。压力方程(5)的有限体积离散化导致:
其中指数f指的是当前计算单元的面,Af指的是它们的面积。在面上定义∇Φ分量是很自然的,例如,我们需要在与u*相同的位置定义Φx。在[76]中,作者利用变量位置的一阶扰动导致泊松方程[40]的收敛解的概念,提出了一个简单的∇Φ公式。例如,考虑一个大计算单元(索引为L)位于几个小单元(索引为s)的右侧,则小单元的Φ的x导数由下式给出:
其中,Δs是大单元L的中心和小单元s的中心之间在x方向上的距离。∇Φ的所有组件都是为所有计算单元类似构建的。这种离散化产生了一个对称正定线性系统,可以使用标准的PCG求解器有效求解。将该求解器与粒子水平集方法结合起来,[76]获得了烟雾和自由表面流的真实模拟(见图3)。  


02 二阶精确泊松求解器
上述离散化仅针对Hodge变量Φ产生一阶精确解。此外,这种离散化在每个单元面上定义了不同的压力梯度。在[75]中,作者采用了不同的方法,并构建了一个大单元的所有相邻单元的Φx离散化等于大单元的离散化。因此有:
此外,为了使线性系统对称,Δs被替换为
[75]中给出的数值示例表明,精度阶数为二阶(表1)。后来,[48]证明了精度阶数确实是二阶,表明精度的提高来自于横向方向上的误差相消,这与[86,85]中T型结点值的高阶精确定义构造相似。

03 八叉树的稳定粘性
在自适应网格的情况下,由于MAC网格布局中速度场的分量是交错的,因此使用Voronoi剖分上的有限体积方法对粘性应力张量进行隐式离散化是方便的。在文献[50]中,作者为Vlasov-Poisson和Vlasov-Maxwell方程引入了一个隐式的二阶精确Voronoi求解器。在文献[29,30]中,该求解器被用于在Chimera网格的背景下计算无散度流体的速度。在文献[48]中,Guittet等人利用三维的Voro++[117],在Quad-/Oc-tree笛卡尔网格的背景下,对应力张量进行了隐式离散化。图4给出了Quadtree网格上的Voronoi划分的一个示例;在这种情况下,速度场x分量之一u0的离散化表达式为:
其中,Voro(u0)是u0的Voronoi单元中涉及的邻居集 合,di是u0和ui之间的距离,si是与线段[u0,ui]正交的Voronoi单元边的长度。将这种离散化应用于所有自由度会产生一个对称正定的线性系统,并且具有二阶精确的解(参见表2,其中考虑了精确解u(x,y)=cos(x)sin(y))。
04 平行八叉树
在[88]中,Mirzadeh等人介绍了一种用于解决Octree森林中自由边界问题的计算框架。他们没有考虑单一的Octree网格,而是考虑了任意数量的Octree网格,这些网格分布在可用的处理器之间。为了确保负载平衡,库p4est被用来在处理器集上统一分配自由度。具体来说,使用Z-ordering对连续的网格点进行排序和分组;然后直接分布生成的数组。采用第二种算法在每个处理器上构建局部八叉树网格,确保局部八叉树的叶与数组的局部元素相匹配。然后对每个处理器进行八叉树的后续离散化,并使用ghost padding在处理器之间交换数据。  
该框架已在Guittet等人的[46]中被用于模拟Octree森林上的单相流体流动。图5给出了在1024个核心上计算的一个球体流过模拟的快照,描绘了Q-criterion的Q = 0.006等位线[54]。在此模拟中,雷诺数为Re=300,八叉树具有(6,9)级,这相当于600万个叶子。作者还在4000个核心上展示了并行缩放。

多相流  

01 带跳跃的泊松求解器
多相流问题的解决方案允许在各相之间的界面处发生跳跃。特别是,压力跳跃与表面张力力有关。在第1节概述的投影方法的上下文中,当求解Hodge变量Φ时,会出现这种边界条件,即需要求解以下形式的方程:
其中β=1/ρ>0在每个子域中被视为常数,但在整个界面上不连续。函数f∈L2(Ω)、gΓ、hΓ和k都是给定的。跨界面Γ的量q的跳跃定义为[q]=q+Γ- q-Γ。在下文中,我们描述了用于解决上述方程组的虚流体方法及其扩展,即Voronoi界面方法。  
1.1 虚流体法
首先考虑一维情况,即试图在网格点xi处离散以下方程(图6):
带跳跃的泊松方程[72]的虚流体方法在界面上引入了一种虚拟解,以反映跳跃条件,同时避免在近似导数时出现O(1/Δx)的误差。具体来说,其符合标准中心差分公式:
其中(q)±R指真实流体的Ω±区域中的量q,修改为:
其中(q)±G指虚流体的Ω±区域中的量q。[Φx]中的跳转条件可以用来构建以下方程:
这个简单的变换以一种急剧的方式在Φx中强加跳跃,并且只影响线性系统的右侧。同样的程序用于解释Φ的跳跃,给出xi的最终离散化:
这种方法产生一个对称正定线性方程组,其中跳跃条件只影响系统的右侧。感兴趣的读者可以参考[72]了解更多细节。  
在两个空间维度中,等式(10)的原始系统可以被改变如下:
其中n1和n2是法向量n的x-和y-分量。虽然该公式与原始问题不同,但它提供了一维情况的简单扩展,并且仍然保留了界面法线方向上的跳跃。事实上,Liu和Sideris证明了这个解是一阶精确的[74]。  
1.2 Voronoi界面方法
泊松方程的虚流体方法忽略了切线方向上的跳跃,这导致解梯度通常不收敛。Guittet等人[47]通过修改界面局部的网格解决了该问题,以使自由度与通量正交的线对齐。然后,离散化可以使用一维的虚流体思想。具体来说,删除界面附近的自由度,并确定它们在Γ上的投影。然后在界面的每一侧沿其法线方向构建两个额外的自由度,然后用整个自由度集构建Voronoi分区(因为网格是笛卡尔坐标的,所以只有界面附近的小带发生了变化)。图7说明了这个过程。

然后用有限体积法在每个自由度i上对方程组(10)进行离散化:
其中C是i周围的控制体,Φij是i和j中间的Φ值。由于通过构造Voronoi单元的边缘符合界面,因此可以认为ΦijΓ.使用一维虚流体方法的思想,网格点i的每个相邻点j对线性系统的左侧的贡献量为:
在它的右手边:
其中之间的调和平均值。  
正如虚流体方法的情况一样,每个阶段的解与其他阶段解耦,这使得当β、Φ和∇Φ·n中的跳跃任意大时能够计算解。图8说明了(10)的典型解,表3给出了该方法在L-范数下的精度顺序(来自[47])。本例考虑了以下问题的精确解:
其中θ是(x,y)与x轴之间的角度。系数β取为:
 
02 多相界面
考虑多种流体(两种以上)的主要困难之一是需要跟踪多种界面。如果考虑每种流体的不同水平集函数,并根据该流体的速度场演化该水平集函数,则数值误差可能会引入无效区域。这在图9中示出,其中产生了重叠和/或真空。必须引入称为预测的其他方法来解决这些情况[81,116,124]。计算机视觉社区经常使用的一种替代方法是使用n个水平集函数的不同符号组合来表示多达2n个区域。然而,这种表示容易产生偏差。
在[77]中,洛萨索等人通过引入投影方法解决了该问题,该方法消除了重叠和真空,保留了带符号距离函数的属性,并保留了准确的界面位置。策略是考虑n个水平集函数来跟踪n种不同的流体,并根据它们的速度场来演化水平集函数。然后通过一个简单的规则更新水平集函数:考虑两个水平集函数φ1和φ2(见图10)已经根据它们各自的速度场更新的情况,投影步骤只是逐点减去φ1和φ2的平均值。在多个水平集函数φi的情况下,投影相当于从所有φi中减去最小的两个水平集函数的平均值。图11给出了使用该技术作为主干的瑞利–泰勒不稳定性模拟示例。
03 表面张力
表面张力是重要物理现象的原因,如液滴破裂或马兰戈尼效应。在数值上,显式处理导致标准的O(Δx3/2)时间步长限制[14]。已经提出了隐式方法来减少时间步长限制。例如,[52]关注曲率随时间的变化,[55]通过使用拉普拉斯–贝尔特拉米算子简化了这种方法(参见[106]中的有限体积实施)。观察到拉普拉斯–贝尔特拉米可以分解为拉普拉斯算子和非线性项的和,[123,142,144]通过隐式离散拉普拉斯算子和显式离散非线性项提出了半隐式离散化。VOF社区中的其他工作已经提出了提高表面张力方法的稳定性[127,70,126]。  
在[145]中,Zheng等人介绍了一种混合粒子/网格方法,该方法允许完全隐式离散化,从而取消了时间步长限制。表面由三角形网格近似,表面张力计算为每个元素上边界段的总和。然后可以计算每个元素上的力导数,并合成一个对称矩阵D,该矩阵可以为负半定矩阵,可写成D=-CTCC与表面张力系数σ相关(详情见[145])。  
Navier-Stokes方程的时间离散化表示为:
其中是体积加权梯度矩阵,是质量矩阵,每个粒子的质量定义为密度加权控制体积,是Δt-weighted压力矢量,是Δt-weighted表面张力矢量,Δt-weighted重力矢量。这个非线性方程组可以写成:
Newton-Raphson方法用于求解这个非线性系统:
其中的雅可比矩阵,为了计算近似雅可比矩阵,每次迭代时都将视为常数。 相对于 的导数是−Δt2D,因此近似雅可比矩阵为:
最后,剩下的是求解对称正定线性方程组:
以及:
从中更新粒子位置:
此外,[145]增加了对体积的限制,因此提出了一种可以隐式处理表面张力的体积守恒方法。这是通过将等式(13)替换为:
离散地加强体积守恒。  
图12中给出了隐式处理表面张力的示例,模拟了液滴振荡。特别地,时间步长取得足够大,以便在单个时间步长内获得稳态。图13示出了液滴分裂成几个卫星液滴的模拟。
04 表气泡动力学的整体质量跟踪
当考虑流体中的气泡时,困难之一是简单的数值处理可能导致气泡崩溃。对抗这种人为塌陷的方法已经考虑通过跟踪气泡的封闭体积并使用给定的状态方程来计算气泡内部的压力[125]。然而,由于拓扑结构的变化,气泡云的体积在整个模拟过程中可能会发生剧烈变化,因此跟踪体积非常微妙。在[1]中,Aanjaneya等人提出跟踪质量,这消除了上述困难。具体来说,他们定义了每个气泡内部的质量,并使用[65]的保守方案将其与空气速度一起平流,确保质量包含在[64]之后的零水平集内。此外,从Caiden等人[17]的耦合不可压缩/可压缩流体解算器开始,他们开发了一个整体式压力解算器,该解算器类似于为流固耦合[112,45,41]开发的解算器,并避免了分区方法的标准稳定性问题。该求解器完全耦合了气泡内压力(假设为常数)和不可压缩流体中压力的自由度。然后在标准投影方法中使用产生的压力来更新流体的速度场。气泡中的速度场使用具有诺依曼边界条件的第二泊松解算器更新,以确保气泡速度与流体速度一致。这种处理允许气泡对流体引起的压缩和膨胀力做出反应。  
作者在[1]中还包括了表面张力的影响,并表明这种方法可以产生稳定的模拟。图14给出了[1]中的一个例子,其中单个气泡在环境流体中上升,与球形固体物体网络相互作用,迫使其分裂成几个更小的气泡。

自由表面流动  

在气体动量效应可以忽略不计的应用中,要考虑自由表面流。在这种情况下,对精度影响最大的步骤是自由表面的压力边界处理。当求解方程(5)中的Φ时应用该边界条件,即求解系统:
并通过边界条件Φ=σκ来控制表面张力的影响。在[40]中,引入了带有狄利克雷边界条件的泊松方程的二阶精确离散化,并随后应用于自由表面流的情况[33]。
[40]中介绍的方法修改了自由表面附近网格点的标准隐式中心差分格式。由于它使用了逐维方法,我们仅描述一维常系数泊松方程情况下的处理方法,Φxx=ux*,注意变系数情况的扩展很简单。假设内部网格点xi与界面相邻,位于xΓ,xi<xΓ<xi+1。在这种情况下,通过定义ΦGi+1的虚值并考虑以下修改的离散化
来填充Φ的线性方程组中的相应行,来施加边界条件Φ=ΦΓ。ΦGi+1的定义是使用ΦΓ作为数据点之一通过外推得到的。所得线性系统的性质和解决方案 的 准 确性取决于外推的程度[37,89]:对于常数或线性外推,相应的线性系统是对称正定的,否则是非对称的(但对角占优)。对于一个常数外推,在解中获得一阶精度,对于每一个额外的外推程度,获得一个额外的阶。在[33]中,作者使用线性外推法来定义ΦGi+1:
xi的离散化变为: 
由于线性系统是对称正定的,[33]使用了一种带有修正的不完全Cholesky预条件子的PCG方法[118]。这些作者证明了压力处理对振荡气泡振幅的影响,并表明压力处理对自由表面求解器的精度至关重要。  
由于Φ的离散化是隐式的,必须在时间tn+1施加边界条件Φ=σκ,这意味着在计算平均曲率κ时使用水平集函数φn+1。水平集函数的运动由时间tn时的流体速度场给出,为了发展水平集函数,有必要在界面附近的带中定义该速度的有效值。由于流体区域外的速度场未知,因此使用以下方程的几次迭代,在界面的法线方向上不断外推速度场:
其中τ是虚拟时间。快速求解器可用于通过求解∇φ·∇uext=0来扩展空气区域中的速度[4,7]
自由边界压力条件的处理已与粒子水平集方法和其他模拟喷雾和泡沫的技术相结合(例如参见[78]和其中的参考文献),并在好莱坞行业的特效图形社区中产生了巨大影响,实际上导致了2008年美国电影协会流体模拟学院奖的颁发。图15中提供了这种真实模拟的示例。

我们还注意到,自由表面上的狄利克雷边界条件也是解决斯特凡问题[38,39,37,88,97,98,111]以及解决沸腾型流动中的能量守恒问题[36,66,131–133,137]的核心要素之一。我们建议感兴趣的读者参考这些参考文献来讨论Stefan问题和沸腾型流动的数值方法。

结论  

本文回顾并综述了尖锐界面数值方法,讨论了自适应网格加密技术及其并行扩展的最新进展。  

翻译转载自《Journal of Computational Physics》“Sharp interface approaches and deep learning techniques for multiphase flows”



来源:多相流在线
Maxwell非线性多相流多孔介质湍流船舶UM多尺度
著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2024-04-28
最近编辑:7月前
积鼎科技
联系我们13162025768
获赞 108粉丝 110文章 302课程 0
点赞
收藏
作者推荐

JCP:深度学习与多相流研究 — 前沿进展及未来探索

本文摘要:(由ai生成)本文综述了机器学习和深度学习在多相流模拟中的应用前景,并探讨了未来研究方向。深度学习通过多层非线性模型学习复杂数据表示,已在多个领域取得显著成功。文章讨论了机器学习在计算物理领域的应用,并强调深度学习在多相流模拟中的潜力。未来研究方向包括深度学习模型设计、结合物理约束的学习算法、大规模并行模拟的稳健性等。此外,计算技术进步和深度学习对跨学科合作的影响也值得关注。本文综述讨论了机器学习和深度学习技术在多相流中的应用,并提出了利用深度学习来加强多相流研究和模拟的一些未来潜在的研究方向。SIMPOP数据爆炸数据日益丰富。过去几年,人类集体产生的数字数据每两年或更短的时间就翻一番。这些数据中的一部分来自物理传感器,如通用电气火车上的传感器每分钟能生成15万个数据点。据英特尔估计,未来自动驾驶汽车中的各种摄像头和传感器每天每辆车能产生4TB的数据。数据还来自虚拟传感器,比如Facebook每天需要处理600多TB的数据,这些数据既来自自动分析收集,也来自用户提供的如信息和照片等数据。这一趋势的主要原因是收集和处理数据的方法不断改进。例如,智能手机的普及导致了根本性的社会变革,但与此同时,它也带来了数据收集和传输方式的系统性变化。在智能手机时代,每个口袋里都装有多个高分辨率数码相机;现在,拍摄和分享照片和视频变得简单而廉价。据预测,在2017年创纪录的1.2万亿张照片中,创纪录的85%将来自手机,预计今年将存储相应的4.7万亿张照片。共同和共生的是,存储和传输数据的方式不断改进。有效处理数据的方法(软硬件结合)也大幅增加。例如,NVIDIATeslaK20X是一款现代工作站GPU,具有3584个浮点处理内核,能够大幅提升并行数值算法的性能。在很大程度上得益于NVIDIA的通用CUDA平台,从集成GPU的移动设备到橡树岭国家实验室的Titan超级计算机,GPU在计算机中无处不在。在软件方面,谷歌的TensorFlow库能够对数据进行大规模异构计算,例如使用具有万亿字节参数的文档模型进行语言建模,针对Google的搜索结果排名,以及基于4000万生物数据点的药物发现。所有这些发展导致研究人员努力获得更多数据,这创造了一个增加数据和改进数据技术的良性循环——这是真正的数据爆炸。尽管统计学家需要处理大量的数据。但是从历史上看,他们习惯于使用小规模数据集来预测更大的行为——但此类调查非常专注于小数据,而不是处理大数据。因此,统计学家基本上没有为数据爆炸做好准备。事实上,即使在像美国总统大选这样重要的事情上,知名新闻机构也仅使用数千个样本进行预测,而现代技术可以轻松收集数量级更多的样本。统计学家对小数据的偏爱导致其他人走到了数据科学的前沿;在某种程度上,人工智能实验室的那些人,尤其是机器学习专家。这些从业者中的许多人仍然与统计学家合作,使用概率/统计的语言,并致力于开发大量利用统计的计算工具——可能过于排他。事实上,在参数的最大似然估计(MLE)和最小二乘法之间存在众所周知的等价性:给定一组数据点(Xi,Yi),可以考虑Y1,...,Yn是遵循线性模型Yi=αXi+β+εi的随机变量,其中α和β是未知参数,εi~N(0,σ2)是独立的同分布高斯噪声。在这种情况下,要确定α和β的最大似然估计,需要最大化似然函数取α,β中的对数和丢弃项常数,显然最大化L等价于最小化这是线性代数入门课程中介绍的标准最小二乘问题。鉴于这种等价性,在机器学习中不使用整个数值线性代数领域似乎是相当天真的;然而,机器学习实践者似乎过于专注于统计描述。机器学习传统的机器学习技术大致分为两类:无监督学习和有监督学习。在无监督学习中,没有为数据指定训练标签。因此,无监督学习通常用于包括聚类和异常检测的任务,其中人们希望在没有数据的标签和/或类别的先验知识的情况下识别数据中的相似性和差异。一种经典的无监督学习技术是主成分分析,它学习给定训练数据的线性不相关特征的基础并将数据投影到该空间。从这个意义上说,无监督学习有助于降低复杂数据集的维度,并有助于深入了解数据背后的潜在变量。相比之下,监督学习利用带标签的训练集。常见的监督学习任务包括分类和回归。支持向量机、随机森林和逻辑回归都是监督学习算法的例子。监督学习本质上意味着为样本点(x,y)的集合创建一个函数y=f(x)。有了这个函数,我们就可以对训练集中位于样本之间或附近的点进行预测。监督和非监督学习任务之间并不总是有明确的区别;例如,不是解决为向量x∈Rn的概率分布p(x)建模的无监督学习问题,而是可以应用链规则,而是应用监督学习技术来学习。传统机器学习的成功实际上非常有限。尽管机器学习专家在概率和统计中使用了相当复杂的技术,但他们很少使用更复杂的应用数学和计算数学。例如,他们只使用最基本的线性代数,并强制他们的所有公式都是线性和/或凸的,以便他们可以使用凸优化。避免了非凸优化或任何种类的非线性。例如,支持向量机,监督学习的主力,解决凸优化问题,以找到输入数据之间的线性分离。在无监督学习中,流行的k-means聚类算法是一个最小二乘问题,也是一个可以写成线性系统的凸优化问题。虽然传统机器学习中的这些线性方法对线性、凸数据和模型有效,但它们甚至无法学习最基本的非线性函数。在这个意义上,XOR是一个很好的例子,它是由相应的输出Y={0,1,1,0}定义在二进制输入对X={(0,0)T,(0,1)T,(1,0)T}上的。旨在确定模型y=f(x;θ)来优化数据的模型,传统的机器学习方法是最小化均方误差损失函数,其中Y(x)是真正的XOR函数。使用正规方程或另一种方法求解线性模型f(x;θ)≡f(x;w,b)=xTw+b,可以让该最小二乘问题产生w=0,b=0.5的解。换句话说,对于所有输入,XOR函数的最佳线性拟合输出0.5,即总是产生不正确的结果。这是意料之中的,因为数据不是线性可分的。从历史上看,传统机器学习算法的局限性是由早期作品观察到的,这些观察导致了美国机器学习研究资金的缺乏。这些资金有限的时期通常被称为“人工智能寒冬”,包括20世纪70年代和80年代的大部分时间。由于美国的资金环境,许多顶级机器学习研究人员聚集在其他研究中心。在一个最重要的例子中,著名的从业者GeoffreyHinton(他发明了多层神经网络的反向传播)、YoshuaBengio(深度学习和神经网络方面被引用最多的作者之一)和YannLeCun(卷积神经网络的先驱,领先的深度学习技术之一)都通过加拿大高级研究所进行合作,并在多伦多大学、麦吉尔大学和蒙特利尔大学担任研究员或教授,推动了加拿大东部机器学习和深度学习创新的强劲趋势。事实上,为了超越传统机器学习强加的线性和凸性的人为障碍,专家们开发了深度学习,结束了人工智能的寒冬。深度学习深度学习使用分层模型发现数据的表示或特征集。深度学习的基本见解是使用多层较简单的表示来构建复杂的表示。这些图层通常链接在一起,因此可见图层(表示输入数据中可直接观察到的要素的图层)将其输出发送到一系列隐藏图层中,这些图层表示的是数据无法直接提供的更抽象的概念。在分层模型顶部的输出层向最终用户提供学习的表示。深度学习通过使用潜在多层的“深度”模型来学习传统方法无法适当捕捉的复杂、抽象和非线性表示,从而与传统机器学习区分开来。回顾学习XOR函数的早期示例,代替传统的机器学习方法,可以改为采用深度学习方法并定义具有非线性激活和单个隐藏层的简单前馈网络,该网络可以成功学习XOR。激活函数指定了如何将网络层的输入映射到输出。关键的见解是对隐藏层使用非线性激活函数,如其中x∈X和max按分量方式起作用。验证g(X)=Y是微不足道的,即该网络精确地恢复了XOR函数。上述函数的非线性分量h(z)=max(0,z)被称为整流线性单元(ReLU),是当前深度学习模型中激活函数的典型建议。像XOR函数这样的例子导致了使用多层深度学习来学习非线性表示的想法,这是超越传统机器学习的一个重大进步。深度学习的这种数学力量结束了人工智能的寒冬,并产生了许多非常成功的基于学习的系统。将深度学习引入机器学习导致了发展的爆炸。例如,应用于许多视觉任务的深度学习方法在ISLVRC(ImageNet)图像分类挑战和COCO对象识别数据集上击败了最先进的结果。深度学习在其他领域也获得了成功应用,如机器人、医学成像、自动驾驶汽车、3D形状分析等。在传统的机器学习中,甚至在深度学习中,算法通常被描述为寻找受某些约束的目标函数的最小值(随机梯度下降是一个无处不在的例子);然而,由于大多数实际问题中固有的非线性和复杂的能量状况,人们不可能找到真正的最小值。然而,机器学习专家通常不会以任何方式求解最小值;极小值不仅不重要,而且通常是不受欢迎的。基本思想是给定一组样本(x,y),找到一个能够很好地插值它们的函数不一定是目标。我们已经从基本多项式插值和ENO、WENO等方案中了解到。将函数与数据拟合远不如函数在数据之外和数据之间的行为重要。在深度学习中,专家将数据的拟合程度称为训练误差,将函数远离数据的效果称为泛化误差。因此,最小化训练误差可能会导致可怕的泛化误差,包括过冲、欠冲等。因此,在深度学习中使用优化算法的真正见解是,人们只是在某个参数空间中移动,由某种优化启发式方法松散地引导,以便有希望找到一组给出良好泛化误差的参数。连续数学和应用数学最近在深度学习领域,特别是在无处不在的非线性和监督学习的整个目标是函数插值这一事实的推动下,连续数学和应用数学出现了复兴。仅在几年前,一些顶级计算机科学家还声称微积分应该在高中阶段被离散数学所取代。10然而,这种情况已经发生了根本变化,因为最近的一些发展是围绕着计算函数梯度的反向传播进行的。不足为奇的是,当概率和机器学习书籍和课程谈论连续/离散概率之间的差异以及连续情况下在一个区间上积分的必要性时,通常最多只有一个衡量理论的脚注。11然而,我们相信全面拥抱连续数学即将到来、需要并将产生巨大影响。因此,我们认为应用数学应该在这一领域处于领先地位。有趣的是,计算流体动力学和计算固体动力学研究人员已经真正掌握了函数插值这种艺术形式。他们使用各种网格——结构化和非结构化、精细和非精细、分层和重叠网格、无网格方法(如SPH法)、材料点方法、混合方法(如PIC和FLIP)、人们可以想象到的各种有限基础、基于CAD的等几何模型等。然后,使用这些有限有序对,他们执行包括插值、微分和求积在内的任务。这些公式中的每一个都在有限数量的离散点处提供有序配对(x,y),或者更一般地说,在谱方法中为紧凑甚至全局函数提供有限数量的系数。这个社区与机器学习社区之间的唯一区别是,机器学习社区通常专注于更高维度的(x,y)。但是机器学习领域的顶级研究人员遇到了一个非常重要的概念,与顶级研究人员在固体和流体力学领域的发现相同:这是一门艺术,而不是科学。这确实需要良好的数学直觉、精湛的技能等。,但也需要数学家所说的独创性或创造力。我们已经训练了一批善于创造低泛化误差、只受训练误差松散指导的人,从事计算流体和固体研究,我们可以将这支军队释放到机器学习社区中。此外,应用数学家和计算流体和固体研究人员处于利用机器学习(特别是深度学习)的模型和算法的理想位置,以便构建更好地纳入数据的物理模拟系统。集成学习和计算物理方面近期论文《JournalofComputationalPhysics》上最近的一些论文讨论了机器学习和深度学习,展示了计算物理中各种主题的应用。例如,在[1]中,作者将PCA应用于高分辨率不可压缩流模拟的数据库;新的模拟使用传统的高分辨率模拟在域的一小部分中运行,而从降阶模型推断的数据用于模拟域的其余部分。[2]使用高斯过程回归和贝叶斯优化来学习可变阶分数平流扩散方程中的阶参数。学习技术也应用于[3],其中贝叶斯线性回归用于预测量子力学系统的密度泛函理论模拟的交换相关泛函。在凝聚态物理领域,[4]使用各种监督学习算法(包括决策树、随机森林、k-最近邻和神经网络)从使用PCA映射的大型配置数据库中预测伊辛模型配置的能量和磁化强度。在另一个应用领域中,[5]设计神经网络来模拟托卡马克聚变反应堆中的超导磁体,并反过来使用这些模型来有效地优化系统设计选择。这些工作表明学习技术在整个计算物理学中的广泛适用性。整合学习和物理的一个特别活跃的应用领域是湍流的建模和模拟。湍流建模是一个适合学习方法的主题,因为湍流模型通常是经验性的,目标是狭窄的流型;因此,当试图对复杂的湍流进行建模和模拟时,很难手动选择模型和模型参数。不是手动选择参数,而是通过在每次迭代中求解加权最小二乘回归问题来学习雷诺平均纳维尔–斯托克斯(RANS)k–ω湍流模型的最佳闭合系数,从而最小化模拟量和实验数据之间的加权距离。[6]使用基因表达式编程(一种进化学习算法)根据高保真模拟数据数据库,学习RANS模拟中雷诺应力张量的代数模型。[7]展示了使用随机森林和神经网络从RANS模拟训练数据中学习雷诺应力各向异性的第二不变量。[8]中的作者使用非线性拉普拉斯谱分析简化了模拟数据,并使用回归分析在模拟二维湍流瑞利–贝纳德对流的背景下研究了简化基础。[9]提出了一个基于迭代卡尔曼方法的贝叶斯框架,用于将实验数据和物理约束纳入RANS模拟的预测和不确定性量化。[10]提出了一种通用技术,其中高斯过程与逆问题解估计集一起使用,以学习线性和非线性问题的模型参数,例如RANS闭合建模。学习技术引起相当大兴趣的另一个主题是材料的建模和模拟,尤其是在多尺度框架中。例如,[11]使用Isomap(一种非线性流形学习技术)构建了一个降阶模型,用于有限应变环境下非线性超弹性材料的多尺度分析。[12]研究了复杂的地下地质模型,提出了一种核主成分分析的变体,以建立与数据更一致的降阶模型。[13]在经过训练的主成分特征基础上应用多元线性回归,以了解多相材料环境下的最佳屈服强度和应变划分模型参数。在[14]中,贝叶斯线性回归模型和团簇扩展光谱分解方法用于预测金属合金的热力学性质,具有不确定性。[15]概述了非均质介质的预测多尺度建模;值得注意的是作者对数据驱动的模型生成和降维与模拟学习技术的调查。最近的几项工作提出了在应用中更广泛或更基础的学习技术。例如,[16,17]描述了一个框架,该框架使用包括信息融合、多级高斯过程回归和扩散图在内的学习技术来执行流体动力学模拟,该模拟可以在并行环境中更好地扩展,可以对大型集群中的故障硬件具有弹性,并且可以使用提供的数据来改进模拟结果。[18]将稀疏网格技术与主要流形学习算法相结合,以提供更有效的生成式降维技术,并在汽车碰撞试验的有限元模拟中展示了其方法。在[19]中,描述了使用高斯过程从稀疏的、可能有噪声的训练数据中学习一般线性微分算子的参数的方法,例如在热方程和反应扩散方程中发现的那些。我们强调[20]的工作,它将深度学习直接连接到多相流模拟。作者运行了大量双流体泡状流的直接数值模拟(DNS)实验以用作训练数据。该模拟数据用于训练一个三层神经网络,该网络学习系统闭合项的模型,即气体流量和流动应力。随后,改变初始条件,如空隙率,并使用神经网络的结果进行新的模拟;作者发现学习驱动的结果与相同场景的DNS结果惊人地一致。[20]还引用了与深度学习和多相流相关的几项较老的工作,例如[21]使用神经网络识别气体-液体流中的不同流型,以及[22]使用神经网络重建湍流通道流中的近壁流。多相流是支持学习的建模和模拟范例的一个有希望的目标,我们将在下一节中讨论这些领域交汇处的潜在研究方向。JCP也并不是唯一发表相关数值模拟工作的期刊。除了JCP,这些基本数值方法也在许多其他地方发表,如计算固体的CMAME或IJNME,或者SIAMJ.Numer.Anal.、JFM、Phys.Fluids等。事实上,即使是最近的SIGGRAPH和SCA会议也有大量将机器学习和深度学习与面向数值模拟工作相结合的论文。展望多相流深度学习未来的机会根据以上对多相流、机器学习和深度学习的回顾,我们提出了几种使用深度学习来增强多相流研究和模拟的未来研究途径。1.深度学习模型包括前馈神经网络、强化学习、卷积神经网络等。在这些类别中,还有进一步的设计选择,例如为神经网络中的隐藏层选择激活函数。正在研究的问题类型(例如气液泡状流与多孔介质渗透)如何影响应该使用的学习模型类型以及该模型中涉及的特定设计选择?2.统计方法通常会忽略潜在的物理原理,例如流体的不可压缩性。如何设计学习算法才能最好地结合物理约束,同时避免过度适应强加的物理条件?3.学习技术有助于创建稳健的大规模并行多相流模拟吗?4.什么样的粗化和升级策略最适合学习技巧?更广泛地说,如何最好地利用数据(可能在多个尺度上获得)来提高多尺度多相流模拟的保真度和效率?5.哪些通用的降阶建模和降维技术适用于学习和多相流之间的相互作用?降维技术能否帮助识别数据中隐藏的低维特征和流形,或者降低需要收集的数据和需要预测的模型的复杂性?6.计算技术的持续进步将如何影响多相流,尤其是在支持学习的技术中?深度学习模型的深度或复杂性是多少,训练数据的数量是多少,足以产生最先进的预测模型?7.深度学习和数据驱动模拟的出现如何影响实验学家、计算科学家和理论家之间的现实世界合作?例如,这些社区如何合作为多相流模拟生成有用的大规模训练数据集?参考文献:[1]M.Bergmann,A.Ferrero,A.Iollo,E.Lombardi,A.Scardigli,H.Telib,AzonalGalerkin-freePODmodelforincompressibleflows,J.Comput.Phys.352(2018)301–325.[2]G.Pang,P.Perdikaris,W.Cai,G.E.Karniadakis,Discoveringvariablefractionalordersofadvection-dispersionequationsfromfielddatausingmulti-fidelityBayesianoptimization,J.Comput.Phys.348(2017)694–714.[3]M.Aldegunde,J.R.Kermode,N.Zabaras,Developmentofanexchange-correlationfunctionalwithuncertaintyquantificationcapabilitiesfordensityfunctionaltheory,J.Comput.Phys.311(2016)173–195.[4]N.Portman,I.Tamblyn,SamplingalgorithmsforvalidationofsupervisedlearningmodelsforIsing-likesystems,J.Comput.Phys.350(2017)871–890.[5]A.Froio,R.Bonifetto,S.Carli,A.Quartararo,L.Savoldi,R.Zanino,Designandoptimizationofartificialneuralnetworksforthemodellingofsuperconductingmagnetsoperationintokamakfusionreactors,J.Comput.Phys.321(2016)476–491.[6]J.Weatheritt,R.Sandberg,AnovelevolutionaryalgorithmappliedtoalgebraicmodificationsoftheRANSstress–strainrelationship,J.Comput.Phys.325(2016)22–37.[7][69]J.Ling,R.Jones,J.Templeton,Machinelearningstrategiesforsystemswithinvarianceproperties,J.Comput.Phys.318(2016)22–35.[8]N.Brenowitz,D.Giannakis,A.Majda,NonlinearLaplacianspectralanalysisofRayleigh–Bénardconvection,J.Comput.Phys.315(2016)536–553.[9][141]H.Xiao,J.-L.Wu,J.-X.Wang,R.Sun,C.Roy,Quantifyingandreducingmodel-formuncertaintiesinReynolds-averagedNavier–Stokessimulations:adata-driven,physics-informedBayesianapproach,J.Comput.Phys.324(2016)115–136[10]E.J.Parish,K.Duraisamy,Aparadigmfordata-drivenpredictivemodelingusingfieldinversionandmachinelearning,J.Comput.Phys.305(2016)758–774.[11]S.Bhattacharjee,K.Matouš,Anonlinearmanifold-basedreducedordermodelformultiscaleanalysisofheterogeneoushyperelasticmaterials,J.Comput.Phys.313(2016)635–653.[12]H.X.Vo,L.J.Durlofsky,RegularizedkernelPCAfortheefficientparameterizationofcomplexgeologicalmodels,J.Comput.Phys.322(2016)859–881.[13]M.I.Latypov,S.R.Kalidindi,Data-drivenreducedordermodelsforeffectiveyieldstrengthandpartitioningofstraininmultiphasematerials,J.Comput.Phys.346(2017)242–261.[14]M.Aldegunde,N.Zabaras,J.Kristensen,Quantifyinguncertaintiesinfirst-principlesalloythermodynamicsusingclusterexpansions,J.Comput.Phys.323(2016)17–44.[15]K.Matouš,M.Geers,V.Kouznetsova,A.Gillman,Areviewofpredictivenonlineartheoriesformultiscalemodelingofheterogeneousmaterials,J.Comput.Phys.330(2017)192–220.[16]S.Lee,I.G.Kevrekidis,G.E.Karniadakis,AresilientandefficientCFDframework:statisticallearningtoolsformulti-fidelityandheterogeneousinformationfusion,J.Comput.Phys.344(2017)516–533.[17]S.Lee,I.G.Kevrekidis,G.E.Karniadakis,AgeneralCFDframeworkforfault-resistantsimulationsbasedonmulti-resolutioninformationfusion,J.Comput.Phys.347(2017)290–304.[18]B.Bohn,J.Garcke,M.Griebel,Asparsegridbasedmethodforgenerativedimensionalityreductionofhigh-dimensionaldata,J.Comput.Phys.309(2016)1–17.[19][107]M.Raissi,P.Perdikaris,G.E.Karniadakis,Inferringsolutionsofdifferentialequationsusingnoisymulti-fidelitydata,J.Comput.Phys.335(2017)736–746.[20]M.Ma,J.Lu,G.Tryggvason,Usingstatisticallearningtoclosetwo-fluidmultiphaseflowequationsforasimplebubblysystem,Phys.Fluids27(2015)092101.[21]Y.Mi,M.Ishii,L.H.Tsoukalas,Flowregimeidentificationmethodologywithneuralnetworksandtwo-phaseflowmodels,Nucl.Eng.Des.204(2001)87–100.[22]M.Milano,P.Koumoutsakos,Neuralnetworkmodelingfornearwallturbulentflow,J.Comput.Phys.182(2002)1–26翻译转载自《JournalofComputationalPhysics》“Sharpinterfaceapproachesanddeeplearningtechniquesformultiphaseflow来源:多相流在线

未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习 福利任务 兑换礼品
下载APP
联系我们
帮助与反馈