物理信息神经网络(PINNs)[36]以及诸如DeepONets [29]和傅里叶神经算子(FNO)[25]之类的算子学习技术,在解决涉及偏微分方程(PDEs)的正向和逆向问题方面展现出了巨大潜力。然而,当这些方法应用于具有尖锐空间梯度或刚性时间行为的奇异扰动系统时,性能往往会下降[8]、[23]、[24]、[26]、[42]。这种性能下降主要归因于光谱偏差[35]、[38]、[46],这阻碍了模型学习对准确表示此类系统至关重要的高频、局部特征的能力。
为了解决这个问题,人们提出了一系列专门的PINN变体。这些包括使用神经切线核理论(NTK)来改善训练动态并对抗光谱偏差的NTK引导PINNs [40];集成可训练权重以聚焦于刚性区域的自适应PINNs [30];以及通过边界层校正器来解决奇异行为的半解析PINNs [14]。其他方法包括变量缩放以增强对敏感区域的关注(VS-PINNs)[19]、逐步引入刚性的基于课程的训练[20]、使用预训练算子来提升收敛性的算子学习增强型PINNs [27],以及将边界层解耦为独立网络的基于理论的架构[2]。尽管这些方法的策略各不相同——涵盖了架构变更、损失重新加权、复杂采样和假设空间细化等方面——但它们的目标都是一致地动态识别和适应刚性。然而,这些改进往往伴随着相当大的计算开销以及稳定性方面的持续问题。
与物理信息学习并行,还提出了一系列基于神经网络的方法来建模非线性和复杂动态系统。典型的例子包括用于分数PDEs的分数子方程神经网络、用于非线性动力学的双线性和双线性残差神经网络、将物理结构与数据驱动的推理相结合的神经符号推理框架,以及用于发现控制方程的基于神经网络的符号计算方法[39]、[41]、[43]、[44]、[45]。这些方法展示了神经方法在科学计算中的多样性;然而,它们主要被设计为通用神经架构,通常并不针对快速、基于线性求解器的刚性PDEs公式。
最近的研究试图通过摆脱计算成本高昂的基于梯度的优化方法来提高科学机器学习的速度和精度。这激发了对极端学习机(ELMs)[17]和物理信息ELMs(PIELM)[11]以及极端功能连接理论(X-TFC)[37]的兴趣。与此相关的发展还包括基于贝叶斯方法的PIELM [28]。这些方法将正向和逆向问题重新构建为线性-高斯框架,从而实现了基于证据的模型选择,并提供了校准的不确定性估计,而无需依赖深度反向传播。
尽管这些方法在速度上具有优势,但它们也有自身的局限性。例如,PIELMs在刚性条件下对超参数非常敏感,并且由于固有的非线性,在处理逆向问题时会遇到困难,即使正向PDE是线性的[7]。一些关于具有物理感知超参数选择的PIELM的最新工作包括基于课程的学习[10]和核自适应PIELMs [13]。
在这些方法中,X–TFC因其最小化目标而脱颖而出:受限的试验函数能够解析满足边界条件,从而消除了对边界惩罚项的需求。然而,仍然存在几个具体的限制:
•对于急剧梯度的高效性问题。 即使是最先进的X–TFC,在存在薄边界层的情况下也会变得计算成本高昂。准确解决急剧梯度通常需要大量的基函数,即使在一维情况下也是如此[6],这严重限制了向更高维度的扩展性。
•复杂的损失函数。 在PINNs和PIELMs中,常见的解决方法是对域进行分解;然而,强制子域之间的连续性和平滑性通常会引入界面损失项。这些惩罚项使目标变得复杂,需要仔细调整,并破坏了基于边界条件的精确公式的简洁性。
•硬域分解的X–TFC。
将硬内部边界纳入X–TFC并非易事,因为推导与任意内部接口相关的受限表达式既繁琐又依赖于具体问题,从而限制了灵活性和重用性。
•基于ELM框架的元学习。
PIELM和X–TFC都继承了极端学习机(ELM)的范式,在这种范式中,基函数通常是随机化的,并且解决方案是通过单次线性求解获得的。虽然这导致了快速的训练,但也意味着学习到的系数没有直接的物理解释,随机初始化的基参数与PDE特性没有明确联系。因此,现有的元学习和自动超参数调整策略——在PINNs和算子学习框架中很常见——并不适用于PIELM和X–TFC。