論文の概要: Data-Efficient Time-Dependent PDE Surrogates: Graph Neural Simulators vs Neural Operators
- arxiv url: http://arxiv.org/abs/2509.06154v1
- Date: Sun, 07 Sep 2025 17:54:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.876267
- Title: Data-Efficient Time-Dependent PDE Surrogates: Graph Neural Simulators vs Neural Operators
- Title(参考訳): データ効率のよい時間依存型PDEサロゲート:グラフニューラルシミュレータ対ニューラル演算子
- Authors: Dibyajyoti Nayak, Somdatta Goswami,
- Abstract要約: 我々は、グラフニューラルネットワークフレームワークであるグラフニューラルシミュレータ(GNS)を用いて、正確なフォワードモデルを構築するために、明確な数値的なタイムステッピングスキームを構築した。
我々は,(1)2D Burgersのスカラー方程式,(2)2D結合バーガースのベクトル方程式,(3)2D Allen-Cahn方程式の3つの標準PDEシステムの枠組みを評価する。
GNSは3つのPDEシステム全体で1000(データの3%)のうち、30のトレーニングサンプルで1%以下の相対的なL2エラーを継続的に達成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators (NOs) approximate mappings between infinite-dimensional function spaces but require large datasets and struggle with scarce training data. Many NO formulations don't explicitly encode causal, local-in-time structure of physical evolution. While autoregressive models preserve causality by predicting next time-steps, they suffer from rapid error accumulation. We employ Graph Neural Simulators (GNS) - a message-passing graph neural network framework - with explicit numerical time-stepping schemes to construct accurate forward models that learn PDE solutions by modeling instantaneous time derivatives. We evaluate our framework on three canonical PDE systems: (1) 2D Burgers' scalar equation, (2) 2D coupled Burgers' vector equation, and (3) 2D Allen-Cahn equation. Rigorous evaluations demonstrate GNS significantly improves data efficiency, achieving higher generalization accuracy with substantially fewer training trajectories compared to neural operator baselines like DeepONet and FNO. GNS consistently achieves under 1% relative L2 errors with only 30 training samples out of 1000 (3% of available data) across all three PDE systems. It substantially reduces error accumulation over extended temporal horizons: averaged across all cases, GNS reduces autoregressive error by 82.48% relative to FNO AR and 99.86% relative to DON AR. We introduce a PCA+KMeans trajectory selection strategy enhancing low-data performance. Results indicate combining graph-based local inductive biases with conventional time integrators yields accurate, physically consistent, and scalable surrogate models for time-dependent PDEs.
- Abstract(参考訳): ニューラル演算子(NOs)は無限次元関数空間間のマッピングを近似するが、大きなデータセットを必要とし、訓練データ不足に悩む。
多くのNOの定式化は、物理的進化の因果的局所時間構造を明示的にエンコードしていない。
自己回帰モデルは次の時間ステップを予測することによって因果性を維持するが、それらは急速にエラーの蓄積に悩まされる。
我々は、メッセージパスグラフニューラルネットワークフレームワークであるグラフニューラルシミュレータ(GNS)を用いて、瞬時時間微分をモデル化してPDEソリューションを学習する正確な前方モデルを構築する。
我々は,(1)2D Burgersのスカラー方程式,(2)2D結合バーガースのベクトル方程式,(3)2D Allen-Cahn方程式の3つの標準PDEシステムの枠組みを評価する。
厳密な評価は、GNSがデータ効率を著しく改善し、DeepONetやFNOのような神経オペレーターベースラインと比較して、トレーニング軌跡を著しく少なくして、高度な一般化精度を実現していることを示している。
GNSは3つのPDEシステムすべてで1000(利用可能なデータの3%)のうち、30のトレーニングサンプルで1%以下の相対的なL2エラーを継続的に達成している。
すべてのケースで平均化され、GNSはFNO ARと比較して自己回帰誤差を82.48%、DON ARに対して99.86%削減する。
我々は,PCA+KMeans軌道選択戦略を導入し,低データ性能を向上する。
その結果、グラフベースの局所帰納バイアスと従来の時間積分器を組み合わせることで、時間依存PDEのための正確で、物理的に一貫性があり、スケーラブルなサロゲートモデルが得られることがわかった。
関連論文リスト
- Stable spectral neural operator for learning stiff PDE systems from limited data [12.62991453201434]
我々は、方程式のない学習フレームワーク、すなわち、安定スペクトルニューラル演算子(SSNO)を導入する。
SSNOはそのアーキテクチャにスペクトルにインスパイアされた構造を組み込み、基礎となる物理学を学ぶための強い誘導バイアスをもたらす。
予測誤差は、先行モデルよりも1~2桁低い。
論文 参考訳(メタデータ) (2025-12-12T16:09:38Z) - A data free neural operator enabling fast inference of 2D and 3D Navier Stokes equations [9.220574860416798]
本研究では,Navier Stokes方程式に対するデータフリー演算子ネットワークを提案する。
2Dベンチマークと3Dテストケース全体で、この手法は従来のニューラル演算子を精度で上回り、アンサンブルでは従来の数値解法よりも高い効率を達成する。
論文 参考訳(メタデータ) (2025-10-27T23:41:42Z) - Data-Augmented Few-Shot Neural Stencil Emulation for System Identification of Computer Models [13.794891110913776]
部分方程式(PDE)は多くの自然および工学的なシステムのモデリングの基盤となる。
ニューラルネットワーク表現でPDEの支配方程式の一部または全部を置き換えることで、ニューラルPDEのようなモデルを表現するのが便利である。
本稿では,コンピュータモデルからニューラルPDEトレーニングデータを生成するための,より効率的なデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2025-08-26T21:22:11Z) - ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting [10.497667917243852]
ODE-GSは、動的3次元シーンを予測するために、3次元ガウス格子と潜時神経常微分方程式(ODE)を統一する新しい手法である。
以上の結果から, 連続潜時ダイナミクスは複雑な3次元シーンの予測に強力で実用的な方法であることが示された。
論文 参考訳(メタデータ) (2025-06-05T18:02:30Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [75.3183193262225]
本稿では,任意の測地上での自動微分とエンフェクサクタクティック勾配を計算するための最初の手法であるモリファイドグラフニューラル演算子 (mGNO) を提案する。
正規格子上のPDEの例では、mGNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Model-Agnostic Knowledge Guided Correction for Improved Neural Surrogate Rollout [3.006104092368596]
本稿では,ニューラルサロゲート,RL決定モデル,物理シミュレータを組み合わせることで,ロールアウト誤差を大幅に低減するモデルに依存しないコスト認識モデルを提案する。
HyPERは、物理的条件の変化に適応し、騒音の破損に抵抗するインテリジェントなポリシーを学ぶ。
論文 参考訳(メタデータ) (2025-03-13T05:00:23Z) - Solving Oscillator Ordinary Differential Equations in the Time Domain with High Performance via Soft-constrained Physics-informed Neural Network with Small Data [0.6446246430600296]
物理インフォームドニューラルネットワーク(PINN)は、物理情報と知識をネットワークトポロジや計算プロセスに組み込む。
本研究では,典型的な線形および非線形常微分方程式を解くために,ソフト制約PINN法の性能特性について検討する。
論文 参考訳(メタデータ) (2024-08-19T13:02:06Z) - Learning time-dependent PDE via graph neural networks and deep operator
network for robust accuracy on irregular grids [14.93012615797081]
GraphDeepONetはグラフニューラルネットワーク(GNN)に基づく自己回帰モデルである
既存のGNNベースのPDEソルバモデルと比較すると,解の精度は高い。
従来のDeepONetとその変種とは異なり、GraphDeepONetは時間依存PDEソリューションの時間外挿を可能にする。
論文 参考訳(メタデータ) (2024-02-13T03:14:32Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - NUNO: A General Framework for Learning Parametric PDEs with Non-Uniform
Data [25.52271761404213]
非統一データを用いた効率的な演算子学習のためのNon-Uniform Operator (NUNO) フレームワークを提案する。
非一様データを一様格子に変換し,誤差を効果的に制御し,非一様データの速度と精度を並列化する。
私たちのフレームワークでは、エラー率を最大60%削減し、トレーニング速度を2倍から30倍に向上しています。
論文 参考訳(メタデータ) (2023-05-30T02:34:10Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。