首页/文章/ 详情

多尺度(multiscale)理论与计算方法前沿研究分享

5月前浏览10469
文一:
 

编织复合材料的非线性力学行为的并发三尺度方案Fe-SCA2

摘要:

对具有复杂微观结构的编织复合材料的力学行为进行有效和准确的多尺度建模是复合材料力学中的一个突出挑战。在这项工作中,提出了一个并发的三尺度方案FE-SCA2,用于预测与微观塑性和成分损伤相关的编织复合材料的宏观非线性行为,其中FE和SCA分别是有限元方法和自洽聚类分析的缩写。在该并行方案中,编织复合材料的宏观行为由有限元分析处理,成分的微观和中尺度行为由SCA处理,同时进行数据驱动的聚类离散化。为了证明所提出方案的 准确性和有效性,我们首先预测了编织复合材料的不对称各向异性屈服面和失效面,然后分析了编织复合板在弯曲下的非线性行为。将计算结果与有限元方法的结果和文献中的实验数据进行了比较,在这些数据可用的情况下,计算结果具有良好的一致性。结果表明,使用所提出的FE-SCA2可以同时捕捉编织复合材料的微观、中尺度和宏观非线性行为,这将难以用实验方法进行表征。所提出的多尺度方法可用于具有各种微观结构和成分特性的复合材料结构,以加快设计和结构优化。

 

图:编织复合材料的自然多尺度特性。

 

图:编织复合材料并发三尺度模拟的计算挑战。

 

图:微型纱线RVE的聚类结果。

 

图:中尺度编织 RVE 的聚类结果。

 

图:编织复合材料的同时三尺度FE-SCA2方案示意图。

 

图:高纤维体积分数UD-RVE的随机算法。

 

图:三维编织复合材料的中尺度RVE。

 

图:正应力空间中的预测屈服面和破坏面。

 

图:三维编织复合材料弯曲试样的几何形状。

 

图:编织复合材料在弯曲条件下的并发三尺度模拟。

文二:

 

高速冲击载荷下脆性和韧性断裂的统一弹粘塑性近场动力学模型

摘要:

近场动力学(PD)作为经典连续介质力学的一种替代形式,是预测裂纹自发萌生和扩展的一种强大方法。本文提出了一个统一的弹粘塑性近场动力学模型,称为基于Bodner-Partom理论的近场动力学(BPPD)模型,用于描述脆性和韧性材料在冲击载荷下的整个变形损伤断裂过程。它通过将Bodner-Partom(B-P)本构理论纳入基于常态的PD框架来定义键向弹粘塑性变形。在BPPD模型中,结合改进的B-P理论,将键劣化作为本征变量引入,并通过临界键拉伸模型实现键断裂。所提出的BPPD模型允许塑性变形和材料退化的自然发展,这与PD理论有着相同的观点。本研究配备了弹性短程力接触模型,进一步研究了BPPD模型在各种冲击载荷下的建模能力。对脆性落球试验、泰勒冲击试验和弹道侵彻试验的模拟结果与实验数据吻合较好。所提出的BPPD模型能够准确地捕捉各种冲击断裂的整个变形过程,从而为PD理论的发展提供了新的多样性,为理解材料断裂机理提供了新视角。

 

图:(a) PD短程相互作用(b)PD离散化PD离散化和接触模型的说明。

 

图:BPPD模型的数值实现流程图。

 

图:应变率效应试验的试样几何形状。

 

图:玻璃板的断裂程度。

 

图:冲击杆在不同时间步长的塑性变形。

 

图:弹道穿透过程中的损伤模式示意图。

文三:

 

基于 NTFA 的面向目标的自适应时空有限元求解微观非均匀弹塑性问题

摘要:

在这项工作中,我们建立了一类耗散非均质材料的目标定向时空有限元方法。这些材料在微观和宏观尺度上建模,体积平均型的尺度转换满足Hill–Mandel条件。为了简化模型,对微观非弹性应变场进行了非均匀变换场分析。简化变量是从这些非弹性应变场的时空分解中推导出来的。由于一些耗散因素,导出了闭合形式的本构关系,从而导致了一个降阶均匀化问题。由此产生的模型误差对于所考虑的材料类别来说足够小,因此将有限元方法的离散化误差作为主要误差源。为了便于误差估计,我们将降阶问题改写为多域公式。基于对偶技术,从拉格朗日方法导出了一个时间上向后的对偶问题,给出了用户定义的感兴趣量的误差表示。结合补丁恢复技术,开发了一种可计算误差估计器来量化空间和时间离散化误差。通过定位技术,使用局部误差估计器在空间和时间上驱动贪婪自适应细化算法。通过几个关于原型模型的数值算例验证了算法的有效性。

 

图:一个两尺度问题的例证。

 

图:NTFA的数值实现。

 

图:纤维增强复合材料RVE的有限元离散化(1672个单元)。

 

图:由纤维增强复合材料制成的穿孔片材。

 

图:示例1: 初始网格的双重解决方案及其增强版本。

 

图:示例1: 用于参考解决方案的离散化。

 

图:示例2:初始网格上的双重解决方案。

文四:

 

基于位错本构模型的典型BCC金属在冲击载荷下动态屈服应力温度相关性的数值研究

摘要:

解释冲击载荷金属动态屈服应力的温度依赖性最近成为冲击波物理学中的一个关键问题。然而,由于缺乏对BCC金属在高应变速率和高温下的本构行为的准确描述,很少研究BCC金属动态屈服应力的温度相关性。为了揭示BCC金属在这种极端条件下动态屈服应力的潜在机制,我们建立了一个基于位错的本构模型,其中从耗散能的角度提出了位错生成方程。当应用于冲击加载的BCC金属时,该模型定量再现了在预热板冲击实验中观察到的弹塑性波特征,即使在>1000K的温度下也是如此。研究发现,热激活均匀成核(TA-HN)引起的森林硬化是钒在高温下热硬化行为的主要因素,而Peierls应力是其他BCC金属热软化行为的主要影响因素。这项工作的新颖性在于,森林硬化机制作为一种塑性硬化机制,通常被认为对BCC金属的温度不敏感,由于TA-HN在高应变速率和高温下对位错运动有显著影响,因此已被证明对温度敏感。基于这一机制,我们还预测,在超过现有实验极限的温度范围内,其他BCC金属,如钼和钨,也会发生热硬化行为。

 

图:平板冲击实验和多晶体模型示意图。

 

图:钒的实验与模拟比较。

 

图:计算的动态屈服应力的温度相关性和实验结果的比较。

 

图:RSS和CRSS在不同温度下的计算时间历程:(a)钽;(b) 钒。实线表示CRSS的时间历史,而虚线表示RSS的时间历史。不同颜色的线条表示不同的温度。

文五:

 

建立一个统一的非局部近场动力学框架,用于带裂缝的分子动力学数据的粗粒化

摘要:

分子动力学(MD)已成为设计材料的有力工具,减少了对实验室测试的依赖。然而,直接使用MD在中尺度上处理材料的变形和失效在很大程度上仍然遥不可及。在这项工作中,我们提出了一个学习框架,从MD模拟的材料断裂数据集中提取近场动力学模型作为中尺度连续体的替代品。首先,我们开发了一种新的粗颗粒化方法,以自动处理MD位移数据集中的材料断裂及其相应的不连续性。受加权本质上无振荡(WENO)方案的启发,关键思想在于一种自适应程序,自动选择局部最光滑的模板,然后将粗粒材料位移场重建为包含不连续性的分段光滑解。然后,基于粗粒度MD数据,提出了一种基于两阶段优化的学习方法来推断具有损伤准则的最优近场动力学模型。在第一阶段,我们从没有材料损伤的数据集中识别最优非局部核函数,以获取材料的刚度特性。然后,在第二阶段,从具有裂缝的数据中学习材料损伤准则作为平滑的阶跃函数。结果,得到了一个近场动力学代理模型。作为一个连续体模型,我们的近场动力学代理模型可以用于进一步的预测任务,与训练的网格分辨率不同,因此与MD相比,可以大幅降低计算成本。我们通过对单层石墨烯中动态裂纹扩展问题的几次数值测试来说明所提出方法的有效性。我们的测试表明,所提出的数据驱动模型是稳健和可推广的,因为它能够在不同于训练期间使用的离散化和加载设置下对裂缝的初始化和生长进行建模。

 

图:粗粒化方法的一个例子。

 

图:四个数据集在零温度下的典型MD模拟中的示例U1位移轮廓。

 

图:在时间步骤20、30和40处,根据断裂训练数据集的MD数据集的预测和地面实况测量的比较,其中石墨烯片受到零体力。

 

图:在具有精细网格的骨折训练数据集上,在时间步骤20、30和40处对来自MD数据集的预测和地面实况测量进行比较,其中石墨烯片受到零体力。

   


来源:STEM与计算机方法
断裂复合材料非线性裂纹理论化机自动驾驶材料分子动力学多尺度数字孪生试验
著作权归作者所有,欢迎分享,未经许可,不得转载
首次发布时间:2024-05-19
最近编辑:5月前
江野
博士 等春风得意,等时间嘉许。
获赞 46粉丝 40文章 300课程 0
点赞
收藏
作者推荐

好书推荐 | 《人工智能:重塑秩序的力量》

本文摘要:(由ai生成)本文概述了AI的发展历程、挑战与前景。AI已广泛应用于多领域,但面临诸多挑战。未来,需深入研究、关注社会影响及加强数据保护。GPT等大模型展现出强大能力,并探索了AI在艺术创作上的可能性。最后,推荐了一本全面介绍AI的图书,帮助读者深入了解AI发展全貌。人工智能(AI)的概念最早可以追溯到20世纪50年代,当时科学家们开始探索如何让计算机模拟人类的思维过程。随着计算机技术的发展,AI研究逐渐从理论走向实践。20世纪80年代,专家系统和机器学习等技术的出现,使得AI开始在特定领域得到应用。进入21世纪,随着大数据、云计算和深度学习等技术的突破,AI得到了飞速发展,应用领域也从最初的棋类游戏、语音识别扩展到自动驾驶、医疗诊断、金融风控等多个领域。尽管AI取得了显著的进展,但在学术、产业和技术方面仍面临诸多争议和挑战。学术上,AI的发展引发了关于意识、自由意志和道德责任等方面的哲学讨论。产业上,AI技术的广泛应用可能导致劳动力市场的结构性变革,部分岗位可能被取代。技术上,AI面临的挑战包括算法的可解释性、数据隐私和安全等问题。此外,AI技术在军事、监控等领域的应用也引发了伦理和人权方面的争议。未来,AI将继续发展壮大,但需要解决的挑战和困境也将更加复杂。学术界需要继续深入研究AI的基本理论,提高算法的可解释性和泛化能力。产业界需要在推动AI技术应用的同时,关注其对劳动力市场、社会公平和环境的影响。技术层面,需要加强数据隐私保护和安全防护措施,确保AI技术的可持续发展。同时,政府、企业和公众应共同参与,制定合理的政策和规范,引导AI技术的健康发展,以实现人类与AI的和谐共生。2022年,GPT和LLM横空出世,它们对人们的生活产生了深远的影响。例如,GPT可以用于智能客服、语音助手等场景,提高人们的工作效率;而LLM则可以用于文本生成、机器翻译等领域,为人们提供更加便捷的服务。我们挑选了一下几个问题给LLM之一——星火大模型回答。Q1如何理解算法、数据和算力及其相关关系?算法、数据和算力是人工智能发展的三大核心要素,它们之间存在密切的相关关系。具体分析如下:1. 算法:算法是人工智能的灵魂,它决定了AI的智力水平。算法可以理解为一系列解决问题的步骤和规则,它是处理数据、提取信息、做出决策的核心。算法的好坏直接影响到AI的学习能力和智能表现。例如,深度学习算法能够通过大量数据训练,识别图像、语音等复杂模式。2. 数据:数据是人工智能的食粮,它是AI学习和进步的基础。没有数据,AI就无法学习知识和提升能力。在机器学习和深度学习中,大量的高质量数据是必不可少的。数据的数量和质量直接关系到AI模型的训练效果和泛化能力。3. 算力:算力是人工智能的动力,它决定了AI处理问题的速度和效率。算力可以理解为计算资源,包括CPU、GPU等硬件设备。随着AI模型变得越来越复杂,对算力的需求也越来越高。没有足够的算力,即使有优秀的算法和大量的数据,AI的训练和推理过程也会变得极其缓慢,甚至无法完成。4. 相关关系:这三者相互依赖、相互促进。算法需要数据来训练和优化,数据的收集和处理又需要算力的支持。同时,随着算法的进步,对数据处理能力和计算速度的要求也会提高,从而推动算力的发展。反之,算力的提升和数据的增长也能促进更复杂、更高效算法的产生。总之,算法、数据和算力共同构成了人工智能发展的基础,它们的相互作用推动了AI技术的进步和应用的普及。在未来,这三个要素的协同发展将继续引领人工智能向更高层次的智能迈进。Q2如何改进人工智能算法可以既得到好的结果,又能减少算力和显卡的消耗?改进人工智能算法以获得好的结果同时减少算力和显卡消耗,可以从以下几个方面入手:1. 模型简化:精简模型结构,去除不必要的层或节点,使用更小的网络。例如,采用MobileNets、SqueezeNet等为移动设备设计的轻量级神经网络。2. 参数共享与迁移学习:利用预训练模型进行迁移学习,只在必要的层次上调整权重,这样可以减少训练所需的计算量。3. 量化与二值化:对模型的权重和激活进行量化,减少数值表示的精度,如使用二值化网络(BNNs),可以显著减少所需的计算资源。4. 知识蒸馏:将大型、复杂模型的知识转移到小型、高效的模型中,通过这种方法,小型模型可以达到接近大型模型的性能。5. 稀疏性优化:在训练过程中鼓励模型权重矩阵的稀疏性,这样可以减少存储和计算的需求。6. 模型剪枝:通过移除模型中不重要的权重或神经元来减小模型的大小,这通常对最终性能影响不大。7. 数据压缩和选择性训练:对数据集进行压缩或选择性地使用子集进行训练,可以减少数据加载和处理的时间。8. 并行计算与硬件优化:优化算法以更好地利用GPU或其他专用硬件的并行处理能力。9. 使用云服务和分布式计算:虽然这可能不会直接减少算力消耗,但可以通过云服务按需分配计算资源,从而降低成本。10. 算法效率改进:研究和实现更高效的优化算法、正则化技术和损失函数,以提高收敛速度和减少过拟合。11. 自适应学习率和早期停止:使用自适应学习率可以在保持收敛速度的同时减少不必要的迭代,而早期停止可以在验证性能不再提升时终止训练,节省计算资源。12. 混合精度训练:使用不同精度的浮点数进行训练,如结合使用单精度和半精度浮点数,可以在不影响结果质量的前提下减少内存使用和提高计算速度。通过这些方法,可以在保持或甚至提高模型性能的同时,减少对算力和显卡资源的消耗。然而,这些方法的应用需要根据具体问题和可用资源进行权衡和选择。Q3请按照李白,杜甫的写诗风格分别以梅花为主题写一首七言绝句。李白风格:梅香独自傲霜雪,月下风中舞剑歌。千树万枝皆白首,独留青眼看江山。杜甫风格:梅花独立寒枝上,雪后初晴影斜阳。世事如烟人易老,只有清香似故乡。我们看到,大模型给出的回答某些时候甚至比人的回答更好。关于大语言模型,事实是:ChatGPT 是基于深度神经网络模型实现的,模型训练使用监督学习和强化学习算法;海量的互联网文本被用作训练语料。ChatGPT 使用的数据量是惊人的。它的前身 GPT-3 模型用 45 万亿字节的数据训练出 1750 亿个参数的神经网络模型,而 ChatGPT 的规模比 GPT-3 的庞大许多。这让人们再次把目光聚焦在算法、数据和算力上。本书融合了哲学、科学、技术、人文等多个视角,将人工智能发展的全景呈现出来,深入浅出。 目 录 ← 左右滑动查看本书目录 → 精彩样章 ← 左右滑动查看精彩样章 →来源:STEM与计算机方法

未登录
还没有评论
课程
培训
服务
行家
VIP会员 学习 福利任务 兑换礼品
下载APP
联系我们
帮助与反馈