論文の概要: Data-Efficient Time-Dependent PDE Surrogates: Graph Neural Simulators vs Neural Operators
- arxiv url: http://arxiv.org/abs/2509.06154v1
- Date: Sun, 07 Sep 2025 17:54:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.876267
- Title: Data-Efficient Time-Dependent PDE Surrogates: Graph Neural Simulators vs Neural Operators
- Title(参考訳): データ効率のよい時間依存型PDEサロゲート:グラフニューラルシミュレータ対ニューラル演算子
- Authors: Dibyajyoti Nayak, Somdatta Goswami,
- Abstract要約: 我々は、グラフニューラルネットワークフレームワークであるグラフニューラルシミュレータ(GNS)を用いて、正確なフォワードモデルを構築するために、明確な数値的なタイムステッピングスキームを構築した。
我々は,(1)2D Burgersのスカラー方程式,(2)2D結合バーガースのベクトル方程式,(3)2D Allen-Cahn方程式の3つの標準PDEシステムの枠組みを評価する。
GNSは3つのPDEシステム全体で1000(データの3%)のうち、30のトレーニングサンプルで1%以下の相対的なL2エラーを継続的に達成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators (NOs) approximate mappings between infinite-dimensional function spaces but require large datasets and struggle with scarce training data. Many NO formulations don't explicitly encode causal, local-in-time structure of physical evolution. While autoregressive models preserve causality by predicting next time-steps, they suffer from rapid error accumulation. We employ Graph Neural Simulators (GNS) - a message-passing graph neural network framework - with explicit numerical time-stepping schemes to construct accurate forward models that learn PDE solutions by modeling instantaneous time derivatives. We evaluate our framework on three canonical PDE systems: (1) 2D Burgers' scalar equation, (2) 2D coupled Burgers' vector equation, and (3) 2D Allen-Cahn equation. Rigorous evaluations demonstrate GNS significantly improves data efficiency, achieving higher generalization accuracy with substantially fewer training trajectories compared to neural operator baselines like DeepONet and FNO. GNS consistently achieves under 1% relative L2 errors with only 30 training samples out of 1000 (3% of available data) across all three PDE systems. It substantially reduces error accumulation over extended temporal horizons: averaged across all cases, GNS reduces autoregressive error by 82.48% relative to FNO AR and 99.86% relative to DON AR. We introduce a PCA+KMeans trajectory selection strategy enhancing low-data performance. Results indicate combining graph-based local inductive biases with conventional time integrators yields accurate, physically consistent, and scalable surrogate models for time-dependent PDEs.
- Abstract(参考訳): ニューラル演算子(NOs)は無限次元関数空間間のマッピングを近似するが、大きなデータセットを必要とし、訓練データ不足に悩む。
多くのNOの定式化は、物理的進化の因果的局所時間構造を明示的にエンコードしていない。
自己回帰モデルは次の時間ステップを予測することによって因果性を維持するが、それらは急速にエラーの蓄積に悩まされる。
我々は、メッセージパスグラフニューラルネットワークフレームワークであるグラフニューラルシミュレータ(GNS)を用いて、瞬時時間微分をモデル化してPDEソリューションを学習する正確な前方モデルを構築する。
我々は,(1)2D Burgersのスカラー方程式,(2)2D結合バーガースのベクトル方程式,(3)2D Allen-Cahn方程式の3つの標準PDEシステムの枠組みを評価する。
厳密な評価は、GNSがデータ効率を著しく改善し、DeepONetやFNOのような神経オペレーターベースラインと比較して、トレーニング軌跡を著しく少なくして、高度な一般化精度を実現していることを示している。
GNSは3つのPDEシステムすべてで1000(利用可能なデータの3%)のうち、30のトレーニングサンプルで1%以下の相対的なL2エラーを継続的に達成している。
すべてのケースで平均化され、GNSはFNO ARと比較して自己回帰誤差を82.48%、DON ARに対して99.86%削減する。
我々は,PCA+KMeans軌道選択戦略を導入し,低データ性能を向上する。
その結果、グラフベースの局所帰納バイアスと従来の時間積分器を組み合わせることで、時間依存PDEのための正確で、物理的に一貫性があり、スケーラブルなサロゲートモデルが得られることがわかった。
関連論文リスト
- Data-Augmented Few-Shot Neural Stencil Emulation for System Identification of Computer Models [13.794891110913776]
部分方程式(PDE)は多くの自然および工学的なシステムのモデリングの基盤となる。
ニューラルネットワーク表現でPDEの支配方程式の一部または全部を置き換えることで、ニューラルPDEのようなモデルを表現するのが便利である。
本稿では,コンピュータモデルからニューラルPDEトレーニングデータを生成するための,より効率的なデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2025-08-26T21:22:11Z) - ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting [10.497667917243852]
ODE-GSは、動的3次元シーンを予測するために、3次元ガウス格子と潜時神経常微分方程式(ODE)を統一する新しい手法である。
以上の結果から, 連続潜時ダイナミクスは複雑な3次元シーンの予測に強力で実用的な方法であることが示された。
論文 参考訳(メタデータ) (2025-06-05T18:02:30Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [75.3183193262225]
本稿では,任意の測地上での自動微分とエンフェクサクタクティック勾配を計算するための最初の手法であるモリファイドグラフニューラル演算子 (mGNO) を提案する。
正規格子上のPDEの例では、mGNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Model-Agnostic Knowledge Guided Correction for Improved Neural Surrogate Rollout [3.006104092368596]
本稿では,ニューラルサロゲート,RL決定モデル,物理シミュレータを組み合わせることで,ロールアウト誤差を大幅に低減するモデルに依存しないコスト認識モデルを提案する。
HyPERは、物理的条件の変化に適応し、騒音の破損に抵抗するインテリジェントなポリシーを学ぶ。
論文 参考訳(メタデータ) (2025-03-13T05:00:23Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - NUNO: A General Framework for Learning Parametric PDEs with Non-Uniform
Data [25.52271761404213]
非統一データを用いた効率的な演算子学習のためのNon-Uniform Operator (NUNO) フレームワークを提案する。
非一様データを一様格子に変換し,誤差を効果的に制御し,非一様データの速度と精度を並列化する。
私たちのフレームワークでは、エラー率を最大60%削減し、トレーニング速度を2倍から30倍に向上しています。
論文 参考訳(メタデータ) (2023-05-30T02:34:10Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。