门控x-TFC:用于具有锐梯度偏微分方程(PDEs)的正向和逆向问题的软域分解方法

时间:2026年2月17日
来源:Neurocomputing

编辑推荐:

Gated X-TFC通过可学习的软分割门动态调整RBF核宽度,解决奇异摄动边值问题的计算效率与精度矛盾,在1D对流扩散基准测试中实现误差降一个数量级,计算效率提升66%,并扩展至多子域和高维问题。

广告
   X   

Vikas Dwivedi | Enrico Schiassi | Bruno Sixou | Monica Sigovan
CREATIS,INSA-Lyon;Inserm,U1044;CNRS UMR 5220;里昂第一大学;里昂大学;法国里昂69621

摘要

物理信息神经网络(PINNs)及相关方法在处理具有奇异扰动的边界值问题时,难以解决急剧的梯度问题,除非采用某种形式的域分解,而这通常会引入复杂的界面惩罚项。虽然极端功能连接理论(X–TFC)通过使用精确的边界条件强制执行避免了多目标优化问题,但由于其TFC组件的存在,在处理边界层时计算效率仍然较低,并且不支持分解。我们提出了Gated X-TFC,这是一种适用于正向和逆向问题的新框架,它通过软化的、可学习的域分解克服了这些限制。我们的方法用可微分的逻辑门替换了硬界面,动态调整了域内的径向基函数(RBF)核宽度,从而消除了对界面惩罚项的需求。这种方法不仅提高了精度,还显著提升了计算效率:在一个一维(1D)对流-扩散基准测试中,Gated X-TFC的误差比标准X–TFC低一个数量级,同时使用的配置点减少了80%,训练时间也缩短了66%。此外,我们引入了一个基于算子条件的元学习层,该层可以从偏微分方程(PDE)参数学习到最优的门配置,从而实现快速且考虑不确定性的问题启动。我们还通过解决一个具有尖锐高斯源的双边界层方程和一个二维泊松问题,证明了该方法的可扩展性。总体而言,Gated X–TFC为处理具有挑战性的边界层问题提供了一种简单且计算效率高的替代方案。未来的工作将集中在非线性问题上。为了便于复现,所有代码均可在以下链接获取:https://github.com/vikas-dwivedi-2022/gated_xtfc

引言

物理信息神经网络(PINNs)[36]以及诸如DeepONets [29]和傅里叶神经算子(FNO)[25]之类的算子学习技术,在解决涉及偏微分方程(PDEs)的正向和逆向问题方面展现出了巨大潜力。然而,当这些方法应用于具有尖锐空间梯度或刚性时间行为的奇异扰动系统时,性能往往会下降[8]、[23]、[24]、[26]、[42]。这种性能下降主要归因于光谱偏差[35]、[38]、[46],这阻碍了模型学习对准确表示此类系统至关重要的高频、局部特征的能力。
为了解决这个问题,人们提出了一系列专门的PINN变体。这些包括使用神经切线核理论(NTK)来改善训练动态并对抗光谱偏差的NTK引导PINNs [40];集成可训练权重以聚焦于刚性区域的自适应PINNs [30];以及通过边界层校正器来解决奇异行为的半解析PINNs [14]。其他方法包括变量缩放以增强对敏感区域的关注(VS-PINNs)[19]、逐步引入刚性的基于课程的训练[20]、使用预训练算子来提升收敛性的算子学习增强型PINNs [27],以及将边界层解耦为独立网络的基于理论的架构[2]。尽管这些方法的策略各不相同——涵盖了架构变更、损失重新加权、复杂采样和假设空间细化等方面——但它们的目标都是一致地动态识别和适应刚性。然而,这些改进往往伴随着相当大的计算开销以及稳定性方面的持续问题。
与物理信息学习并行,还提出了一系列基于神经网络的方法来建模非线性和复杂动态系统。典型的例子包括用于分数PDEs的分数子方程神经网络、用于非线性动力学的双线性和双线性残差神经网络、将物理结构与数据驱动的推理相结合的神经符号推理框架,以及用于发现控制方程的基于神经网络的符号计算方法[39]、[41]、[43]、[44]、[45]。这些方法展示了神经方法在科学计算中的多样性;然而,它们主要被设计为通用神经架构,通常并不针对快速、基于线性求解器的刚性PDEs公式。
最近的研究试图通过摆脱计算成本高昂的基于梯度的优化方法来提高科学机器学习的速度和精度。这激发了对极端学习机(ELMs)[17]和物理信息ELMs(PIELM)[11]以及极端功能连接理论(X-TFC)[37]的兴趣。与此相关的发展还包括基于贝叶斯方法的PIELM [28]。这些方法将正向和逆向问题重新构建为线性-高斯框架,从而实现了基于证据的模型选择,并提供了校准的不确定性估计,而无需依赖深度反向传播。
尽管这些方法在速度上具有优势,但它们也有自身的局限性。例如,PIELMs在刚性条件下对超参数非常敏感,并且由于固有的非线性,在处理逆向问题时会遇到困难,即使正向PDE是线性的[7]。一些关于具有物理感知超参数选择的PIELM的最新工作包括基于课程的学习[10]和核自适应PIELMs [13]。
在这些方法中,X–TFC因其最小化目标而脱颖而出:受限的试验函数能够解析满足边界条件,从而消除了对边界惩罚项的需求。然而,仍然存在几个具体的限制:
  • 对于急剧梯度的高效性问题。 即使是最先进的X–TFC,在存在薄边界层的情况下也会变得计算成本高昂。准确解决急剧梯度通常需要大量的基函数,即使在一维情况下也是如此[6],这严重限制了向更高维度的扩展性。
  • 复杂的损失函数。 在PINNs和PIELMs中,常见的解决方法是对域进行分解;然而,强制子域之间的连续性和平滑性通常会引入界面损失项。这些惩罚项使目标变得复杂,需要仔细调整,并破坏了基于边界条件的精确公式的简洁性。
  • 硬域分解的X–TFC。
    将硬内部边界纳入X–TFC并非易事,因为推导与任意内部接口相关的受限表达式既繁琐又依赖于具体问题,从而限制了灵活性和重用性。
  • 基于ELM框架的元学习。
    PIELM和X–TFC都继承了极端学习机(ELM)的范式,在这种范式中,基函数通常是随机化的,并且解决方案是通过单次线性求解获得的。虽然这导致了快速的训练,但也意味着学习到的系数没有直接的物理解释,随机初始化的基参数与PDE特性没有明确联系。因此,现有的元学习和自动超参数调整策略——在PINNs和算子学习框架中很常见——并不适用于PIELM和X–TFC。
  • 我们通过Gated X–TFC解决了这些限制,该方法进行了软化的域分解。域被适应性分割,逻辑门在分割范围内平滑调节RBF宽度。单一的全局X–TFC试验解覆盖了整个区间并精确满足边界条件,因此不需要界面惩罚项。界面位置和门的过渡尺度是学习得到的。正向求解通过对强形式残差进行最小二乘来估计系数;逆向问题则在带有基于证据的正则化和贝叶斯优化的白化线性模型中堆叠数据和PDE残差。除了基础求解器之外,我们还引入了一个基于算子条件的元学习器,该元学习器离线扫描PDE参数并拟合PDE参数与学习到的门参数之间的概率映射。在测试时,这提供了考虑不确定性的快速启动和紧密的搜索窗口,减少了外部循环搜索的成本,同时保持了精度。
    • Gated X–TFC: 一种基于门的软化域分解方法,能够精确满足边界条件并消除界面惩罚,同时处理薄层问题。
    • 统一的前向和逆向求解器: 前向问题使用强形式残差最小二乘;逆向问题使用带有基于证据的正则化和贝叶斯优化的白化线性-高斯公式。
    • 基于算子条件的元学习:
      从PDE参数到门参数的概率回归,实现了考虑不确定性的快速启动和紧密的搜索范围,从而比全局手动调整的方案具有更快的收敛速度和更高的可靠性。
  • 实证收益:
    在具有小扩散的一维对流-扩散基准测试中,Gated X–TFC获得了准确的正向和逆向解,并在速度/精度权衡方面优于PINNs、PIELMs、Deep-TFC和X–TFC。
  • 实用且可扩展:
    该方法自然适用于多个分割和更高维度,如在具有尖锐高斯源的双边界层方程和二维泊松问题中所示。
  • 本文的结构如下:第2节简要回顾了PINN、PIELM、X–TFC和元学习。第3节详细介绍了Gated X–TFC,包括三个部分:正向求解器、逆向参数估计和基于算子条件的元学习。第4节报告了对流-扩散基准测试的结果,并进行了基线比较,随后扩展到了具有尖锐高斯源的双边界层(多子域)方程和二维泊松方程。第5节总结了本文。

    章节片段

    PINNs

    在典型的物理信息神经网络(PINN)框架[9]、[18]、[36]中,深度神经网络用于近似PDE的解。计算域内随机分布的配置点以及边界点作为训练数据集。在这些点上,对于偏离控制PDE和边界条件(BCs)的情况引入了惩罚项。这些惩罚项的均方误差代表了PDE和BCs的残差,定义了基于物理的损失函数

    模型问题

    我们考虑以下受狄利克雷边界条件约束的一维稳态对流-扩散问题
    其中

    生物通微信公众号
    微信
    新浪微博


    生物通 版权所有