論文の概要: On the under-reaching phenomenon in message-passing neural PDE solvers: revisiting the CFL condition
- arxiv url: http://arxiv.org/abs/2507.08861v1
- Date: Wed, 09 Jul 2025 11:50:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.569692
- Title: On the under-reaching phenomenon in message-passing neural PDE solvers: revisiting the CFL condition
- Title(参考訳): メッセージパッシング型ニューラルPDEソルバにおけるアンダーリーチング現象について-CFL条件の再検討
- Authors: Lucas Tesan, Mikel M. Iparraguirre, David Gonzalez, Pedro Martins, Elias Cueto,
- Abstract要約: 本稿では、偏微分方程式(PDE)の解法において、グラフニューラルネットワーク(GNN)に要求されるメッセージパッシング回数の急激な下限を提案する。
本稿では,問題を管理する方程式の物理定数,空間的および時間的離散化,およびGNNにおけるメッセージパッシング機構の関係について検討する。
提案された下界が満たされると、GNNパラメータ化により、モデルが基礎となる現象学を正確に捉えることができ、正確な精度の解法が得られる。
- 参考スコア(独自算出の注目度): 0.4019533549688539
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper proposes sharp lower bounds for the number of message passing iterations required in graph neural networks (GNNs) when solving partial differential equations (PDE). This significantly reduces the need for exhaustive hyperparameter tuning. Bounds are derived for the three fundamental classes of PDEs (hyperbolic, parabolic and elliptic) by relating the physical characteristics of the problem in question to the message-passing requirement of GNNs. In particular, we investigate the relationship between the physical constants of the equations governing the problem, the spatial and temporal discretisation and the message passing mechanisms in GNNs. When the number of message passing iterations is below these proposed limits, information does not propagate efficiently through the network, resulting in poor solutions, even for deep GNN architectures. In contrast, when the suggested lower bound is satisfied, the GNN parameterisation allows the model to accurately capture the underlying phenomenology, resulting in solvers of adequate accuracy. Examples are provided for four different examples of equations that show the sharpness of the proposed lower bounds.
- Abstract(参考訳): 本稿では、偏微分方程式(PDE)の解法において、グラフニューラルネットワーク(GNN)に必要なメッセージパッシングイテレーション数に対して、シャープな下限を提案する。
これにより、徹底的なハイパーパラメータチューニングの必要性が大幅に低減される。
境界は、問題の物理的特性をGNNのメッセージパス要求に関連付けることにより、PDEの3つの基本クラス(双曲、放物、楕円)に導かれる。
特に,問題を管理する方程式の物理定数,空間的および時間的離散化,およびGNNにおけるメッセージパッシング機構の関係について検討する。
メッセージパッシングの回数がこれらの制限より下にある場合、情報はネットワークを介して効率的に伝播せず、深いGNNアーキテクチャであってもソリューションが貧弱になる。
対照的に、提案された下界が満たされると、GNNパラメータ化により、モデルが基礎となる現象学を正確に捉えることができ、精度の高い解法が得られる。
例として、提案された下界の鋭さを示す方程式の4つの異なる例を挙げる。
関連論文リスト
- General-Kindred Physics-Informed Neural Network to the Solutions of Singularly Perturbed Differential Equations [11.121415128908566]
我々は,Singular Perturbation Differential Equations(SPDE)の解法として,GKPINN(General-Kindred Physics-Informed Neural Network)を提案する。
この手法は, 境界層の事前知識を方程式から利用し, 境界層を近似するPINNを支援する新しいネットワークを確立する。
GKPINNは,確立したPINN法と比較して,2~4桁の誤差を2~4桁に削減し,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-08-27T02:03:22Z) - Stacked tensorial neural networks for reduced-order modeling of a
parametric partial differential equation [0.0]
複数のTNNを大きなネットワークに融合させるディープニューラルネットワークアーキテクチャについて説明する。
このアーキテクチャを、3つの独立変数と3つのパラメータを持つパラメトリックPDE上で評価する。
論文 参考訳(メタデータ) (2023-12-21T21:44:50Z) - Grad-Shafranov equilibria via data-free physics informed neural networks [0.0]
PINNはいくつかの異なる境界条件でGrad-Shafranov方程式を正確かつ効果的に解くことができることを示す。
パラメータ化PINNフレームワークを導入し、入力空間を圧力、アスペクト比、伸長、三角度などの変数を含むように拡張する。
論文 参考訳(メタデータ) (2023-11-22T16:08:38Z) - Number Theoretic Accelerated Learning of Physics-Informed Neural Networks [16.57441317977376]
格子トレーニングと周期化のトリックを導入し,理論が要求する条件を確実にする。
実験により、GLTは2-7倍のコロケーションポイントを必要とし、計算コストが低下することが示された。
論文 参考訳(メタデータ) (2023-07-26T00:01:21Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Learning to Solve PDE-constrained Inverse Problems with Graph Networks [51.89325993156204]
科学と工学にまたがる多くの応用分野において、偏微分方程式(PDE)によって定義される制約で逆問題を解決することに興味がある。
ここでは、これらのPDE制約された逆問題を解決するために、GNNを探索する。
GNNを用いて計算速度を最大90倍に向上させる。
論文 参考訳(メタデータ) (2022-06-01T18:48:01Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Robust Learning of Physics Informed Neural Networks [2.86989372262348]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式の解法に有効であることが示されている。
本稿では、PINNがトレーニングデータのエラーに敏感であり、これらのエラーをPDEの解領域上で動的に伝播させるのに過度に適合していることを示す。
論文 参考訳(メタデータ) (2021-10-26T00:10:57Z) - PhyCRNet: Physics-informed Convolutional-Recurrent Network for Solving
Spatiotemporal PDEs [8.220908558735884]
偏微分方程式 (Partial differential equation, PDE) は、幅広い分野の問題をモデル化し、シミュレーションする上で基礎的な役割を果たす。
近年のディープラーニングの進歩は、データ駆動逆解析の基盤としてPDEを解くために物理学インフォームドニューラルネットワーク(NN)の大きな可能性を示している。
本稿では,PDEをラベル付きデータなしで解くための物理インフォームド・畳み込み学習アーキテクチャ(PhyCRNetとPhCRyNet-s)を提案する。
論文 参考訳(メタデータ) (2021-06-26T22:22:19Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。