論文の概要: Data-Efficient Time-Dependent PDE Surrogates: Graph Neural Simulators vs. Neural Operators
- arxiv url: http://arxiv.org/abs/2509.06154v2
- Date: Wed, 24 Sep 2025 18:01:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 14:16:56.041726
- Title: Data-Efficient Time-Dependent PDE Surrogates: Graph Neural Simulators vs. Neural Operators
- Title(参考訳): データ効率のよい時間依存型PDEサロゲート:グラフニューラルシミュレータ対ニューラル演算子
- Authors: Dibyajyoti Nayak, Somdatta Goswami,
- Abstract要約: 時間依存偏微分方程式(PDE)の原理的代理モデルとしてニューラルグラフシミュレータ(GNS)を提案する。
GNSは、メッセージパッシングと数値的なタイムステッピングスキームを組み合わせて、瞬時微分をモデル化してPDEダイナミクスを学習する。
その結果, GNSはデータ効率が著しく高く, 比較的L2誤差が1%未満であり, 利用可能な軌道は3%に過ぎなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing accurate, data-efficient surrogate models is central to advancing AI for Science. Neural operators (NOs), which approximate mappings between infinite-dimensional function spaces using conventional neural architectures, have gained popularity as surrogates for systems driven by partial differential equations (PDEs). However, their reliance on large datasets and limited ability to generalize in low-data regimes hinder their practical utility. We argue that these limitations arise from their global processing of data, which fails to exploit the local, discretized structure of physical systems. To address this, we propose Graph Neural Simulators (GNS) as a principled surrogate modeling paradigm for time-dependent PDEs. GNS leverages message-passing combined with numerical time-stepping schemes to learn PDE dynamics by modeling the instantaneous time derivatives. This design mimics traditional numerical solvers, enabling stable long-horizon rollouts and strong inductive biases that enhance generalization. We rigorously evaluate GNS on four canonical PDE systems: (1) 2D scalar Burgers', (2) 2D coupled Burgers', (3) 2D Allen-Cahn, and (4) 2D nonlinear shallow-water equations, comparing against state-of-the-art NOs including Deep Operator Network (DeepONet) and Fourier Neural Operator (FNO). Results demonstrate that GNS is markedly more data-efficient, achieving less than 1% relative L2 error using only 3% of available trajectories, and exhibits dramatically reduced error accumulation over time (82.5% lower autoregressive error than FNO, 99.9% lower than DeepONet). To choose the training data, we introduce a PCA combined with KMeans trajectory selection strategy. These findings provide compelling evidence that GNS, with its graph-based locality and solver-inspired design, is the most suitable and scalable surrogate modeling framework for AI-driven scientific discovery.
- Abstract(参考訳): 正確でデータ効率のよい代理モデルを開発することは、AI for Scienceの進化の中心である。
従来のニューラルネットワークを用いた無限次元関数空間間の近似写像であるニューラル作用素 (NOs) は、偏微分方程式 (PDE) によって駆動される系の代用として人気を博している。
しかし、大規模なデータセットへの依存と低データ体制における一般化能力の制限は、その実用性を妨げている。
これらの制限は、物理システムの局所的、離散化された構造を利用できない、データのグローバルな処理から生じている、と我々は主張する。
そこで本稿では,時間依存型PDEのためのサーロゲートモデリングパラダイムとして,グラフニューラルシミュレータ(GNS)を提案する。
GNSは、メッセージパッシングと数値的なタイムステッピングスキームを組み合わせて、瞬時微分をモデル化してPDEダイナミクスを学習する。
この設計は従来の数値解法を模倣し、安定な長軸ロールアウトと、一般化を促進する強い帰納バイアスを可能にする。
我々は,(1)2Dスカラーバーガーズ,(2)2D結合バーガーズ,(3)2Dアレン・カーン,(4)2D非線形浅層水方程式の4つの標準PDEシステムにおいて,GNSを厳格に評価し,Deep Operator Network (DeepONet) やフーリエニューラル・オペレータ (FNO) を含む最先端のNOと比較した。
その結果、GNSはデータ効率が著しく向上し、利用可能な軌道のわずか3%で1%未満の相対L2エラーを達成でき、時間とともにエラーの蓄積が劇的に減少している(FNOよりも82.5%低い自己回帰誤差、DeepONetより99.9%低い)。
トレーニングデータを選択するために、KMeans軌道選択戦略と組み合わせたPCAを導入する。
これらの発見は、GNSがグラフベースのローカリティとソルバにインスパイアされた設計を持ち、AIによる科学的発見に最も適しており、スケーラブルなサロゲートモデリングフレームワークであることを示す説得力のある証拠である。
関連論文リスト
- Data-Augmented Few-Shot Neural Stencil Emulation for System Identification of Computer Models [13.794891110913776]
部分方程式(PDE)は多くの自然および工学的なシステムのモデリングの基盤となる。
ニューラルネットワーク表現でPDEの支配方程式の一部または全部を置き換えることで、ニューラルPDEのようなモデルを表現するのが便利である。
本稿では,コンピュータモデルからニューラルPDEトレーニングデータを生成するための,より効率的なデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2025-08-26T21:22:11Z) - ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting [10.497667917243852]
ODE-GSは、動的3次元シーンを予測するために、3次元ガウス格子と潜時神経常微分方程式(ODE)を統一する新しい手法である。
以上の結果から, 連続潜時ダイナミクスは複雑な3次元シーンの予測に強力で実用的な方法であることが示された。
論文 参考訳(メタデータ) (2025-06-05T18:02:30Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [75.3183193262225]
本稿では,任意の測地上での自動微分とエンフェクサクタクティック勾配を計算するための最初の手法であるモリファイドグラフニューラル演算子 (mGNO) を提案する。
正規格子上のPDEの例では、mGNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Model-Agnostic Knowledge Guided Correction for Improved Neural Surrogate Rollout [3.006104092368596]
本稿では,ニューラルサロゲート,RL決定モデル,物理シミュレータを組み合わせることで,ロールアウト誤差を大幅に低減するモデルに依存しないコスト認識モデルを提案する。
HyPERは、物理的条件の変化に適応し、騒音の破損に抵抗するインテリジェントなポリシーを学ぶ。
論文 参考訳(メタデータ) (2025-03-13T05:00:23Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - NUNO: A General Framework for Learning Parametric PDEs with Non-Uniform
Data [25.52271761404213]
非統一データを用いた効率的な演算子学習のためのNon-Uniform Operator (NUNO) フレームワークを提案する。
非一様データを一様格子に変換し,誤差を効果的に制御し,非一様データの速度と精度を並列化する。
私たちのフレームワークでは、エラー率を最大60%削減し、トレーニング速度を2倍から30倍に向上しています。
論文 参考訳(メタデータ) (2023-05-30T02:34:10Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。