論文の概要: Automated discovery of finite volume schemes using Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2508.19052v1
- Date: Tue, 26 Aug 2025 14:08:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.874186
- Title: Automated discovery of finite volume schemes using Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークを用いた有限体積スキームの自動発見
- Authors: Paul Garnier, Jonathan Viquerat, Elie Hachem,
- Abstract要約: グラフニューラルネットワーク(GNN)は,従来の役割を超えた目的を果たすことができる。
2ノードグラフのみからなるデータセット上で訓練されたGNNが1次有限体積スキームを外挿可能であることを示す。
シンボリック回帰を用いて、ネットワークは標準一階FVスキームの正確な解析的定式化を効果的に再検討することを示す。
- 参考スコア(独自算出の注目度): 2.867517731896504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have deeply modified the landscape of numerical simulations by demonstrating strong capabilities in approximating solutions of physical systems. However, their ability to extrapolate beyond their training domain (\textit{e.g.} larger or structurally different graphs) remains uncertain. In this work, we establish that GNNs can serve purposes beyond their traditional role, and be exploited to generate numerical schemes, in conjunction with symbolic regression. First, we show numerically and theoretically that a GNN trained on a dataset consisting solely of two-node graphs can extrapolate a first-order Finite Volume (FV) scheme for the heat equation on out-of-distribution, unstructured meshes. Specifically, if a GNN achieves a loss $\varepsilon$ on such a dataset, it implements the FV scheme with an error of $\mathcal{O}(\varepsilon)$. Using symbolic regression, we show that the network effectively rediscovers the exact analytical formulation of the standard first-order FV scheme. We then extend this approach to an unsupervised context: the GNN recovers the first-order FV scheme using only a residual loss similar to Physics-Informed Neural Networks (PINNs) with no access to ground-truth data. Finally, we push the methodology further by considering higher-order schemes: we train (i) a 2-hop and (ii) a 2-layers GNN using the same PINN loss, that autonomously discover (i) a second-order correction term to the initial scheme using a 2-hop stencil, and (ii) the classic second-order midpoint scheme. These findings follows a recent paradigm in scientific computing: GNNs are not only strong approximators, but can be active contributors to the development of novel numerical methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、物理系の近似解の強い能力を示すことによって、数値シミュレーションの展望を深く変えてきた。
しかし、トレーニング領域を超えて外挿する能力(\textit{e g } より大きいか、構造的に異なるグラフ)はいまだに不明である。
本研究では,GNNが従来の役割を超越した目的を果たすことを確認し,シンボル回帰と合わせて数値的スキームを生成する。
まず、2ノードグラフのみからなるデータセット上で訓練されたGNNが、分布外非構造メッシュ上の熱方程式の1次有限体積(FV)スキームを外挿できることを数値的および理論的に示す。
具体的には、GNNがそのようなデータセットで損失$\varepsilon$を達成した場合、FVスキームを$\mathcal{O}(\varepsilon)$のエラーで実装する。
シンボリック回帰を用いて、ネットワークは標準一階FVスキームの正確な解析的定式化を効果的に再検討することを示す。
GNNは,物理インフォームドニューラルネットワーク(PINN)に類似した残留損失のみを用いて1次FVスキームを復元する。
最後に、高次スキームを考慮し、方法論をさらに推し進める:訓練する
(一)二本足
二 同じPINN損失を自律的に発見する二層GNN
i) 2ホップステンシルを用いた初期スキームの2次補正項及び
(二)古典的な二階中点法。
GNNは強力な近似器であるだけでなく、新しい数値法の開発に積極的に貢献することができる。
関連論文リスト
- NN-Former: Rethinking Graph Structure in Neural Architecture Representation [67.3378579108611]
グラフニューラルネットワーク(GNN)とトランスフォーマーは、ニューラルネットワークを表現する上で有望なパフォーマンスを示している。
これまでの研究で見過ごされている間、兄弟ノードは中心的であることを示す。
我々のアプローチは、精度と遅延予測の両方において、常に有望な性能を達成する。
論文 参考訳(メタデータ) (2025-07-01T15:46:18Z) - Generalizable Graph Neural Networks for Robust Power Grid Topology Control [0.24578723416255752]
グラフニューラルネットワーク(GNN)は、計算におけるグラフ構造を反映したMLモデルのクラスである。
GNN層のみを利用するグリッドトポロジ制御のための最初のGNNモデルを提案する。
我々は、同種および異種GNNと完全連結ニューラルネットワーク(FCNN)の両方を模倣学習タスクに基づいて訓練する。
論文 参考訳(メタデータ) (2025-01-13T10:31:36Z) - Reducing Oversmoothing through Informed Weight Initialization in Graph Neural Networks [16.745718346575202]
本稿では,ノードやグラフの分類タスクにおいて,過度なスムース化を抑える新しいスキーム(G-Init)を提案する。
以上の結果から,新しい手法(G-Init)は深部GNNの過剰なスムース化を低減し,その有効利用を促進することが示唆された。
論文 参考訳(メタデータ) (2024-10-31T11:21:20Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。