論文の概要: Learning time-dependent PDE via graph neural networks and deep operator
network for robust accuracy on irregular grids
- arxiv url: http://arxiv.org/abs/2402.08187v1
- Date: Tue, 13 Feb 2024 03:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 16:42:21.310837
- Title: Learning time-dependent PDE via graph neural networks and deep operator
network for robust accuracy on irregular grids
- Title(参考訳): グラフニューラルネットワークと深部演算子ネットワークによる時間依存PDE学習による不規則格子の高精度化
- Authors: Sung Woong Cho, Jae Yong Lee, Hyung Ju Hwang
- Abstract要約: GraphDeepONetはグラフニューラルネットワーク(GNN)に基づく自己回帰モデルである
既存のGNNベースのPDEソルバモデルと比較すると,解の精度は高い。
従来のDeepONetとその変種とは異なり、GraphDeepONetは時間依存PDEソリューションの時間外挿を可能にする。
- 参考スコア(独自算出の注目度): 14.93012615797081
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Scientific computing using deep learning has seen significant advancements in
recent years. There has been growing interest in models that learn the operator
from the parameters of a partial differential equation (PDE) to the
corresponding solutions. Deep Operator Network (DeepONet) and Fourier Neural
operator, among other models, have been designed with structures suitable for
handling functions as inputs and outputs, enabling real-time predictions as
surrogate models for solution operators. There has also been significant
progress in the research on surrogate models based on graph neural networks
(GNNs), specifically targeting the dynamics in time-dependent PDEs. In this
paper, we propose GraphDeepONet, an autoregressive model based on GNNs, to
effectively adapt DeepONet, which is well-known for successful operator
learning. GraphDeepONet exhibits robust accuracy in predicting solutions
compared to existing GNN-based PDE solver models. It maintains consistent
performance even on irregular grids, leveraging the advantages inherited from
DeepONet and enabling predictions on arbitrary grids. Additionally, unlike
traditional DeepONet and its variants, GraphDeepONet enables time extrapolation
for time-dependent PDE solutions. We also provide theoretical analysis of the
universal approximation capability of GraphDeepONet in approximating continuous
operators across arbitrary time intervals.
- Abstract(参考訳): ディープラーニングを用いた科学計算は近年大きな進歩を遂げている。
偏微分方程式(PDE)のパラメータから対応する解への演算子学習モデルへの関心が高まっている。
ディープオペレータネットワーク(deeponet)とフーリエニューラルオペレータ(fourier neural operator)は、入力と出力として関数を扱うのに適した構造で設計されており、ソリューションオペレーターのサロゲートモデルとしてリアルタイム予測を可能にする。
また、グラフニューラルネットワーク(GNN)に基づく代理モデルの研究にも大きな進展があり、特に時間依存PDEのダイナミクスをターゲットにしている。
本稿では,GNNをベースとした自己回帰モデルであるGraphDeepONetを提案する。
GraphDeepONetは、既存のGNNベースのPDEソルバモデルと比較して、ソリューションの予測に堅牢な精度を示す。
不規則なグリッドでも一貫したパフォーマンスを維持し、deeponetから受け継いだ利点を活用し、任意のグリッドでの予測を可能にする。
さらに、従来のDeepONetとその変種とは異なり、GraphDeepONetは時間依存のPDEソリューションの時間外挿を可能にする。
また,任意の時間間隔にわたって連続作用素を近似するグラフdeeponetの普遍近似能力を理論的に解析する。
関連論文リスト
- Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Learning in latent spaces improves the predictive accuracy of deep
neural operators [0.0]
L-DeepONetは標準のDeepONetの拡張であり、高次元PDE入力の潜在表現と適切なオートエンコーダで識別される出力関数を利用する。
L-DeepONetは時間依存PDEの精度と計算効率の両面で標準手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-15T17:13:09Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Learning PDE Solution Operator for Continuous Modeling of Time-Series [1.39661494747879]
この研究は、動的モデリング能力を改善する偏微分方程式(PDE)に基づくフレームワークを提案する。
時間的離散化の反復的操作や特定のグリッドを必要とせずに連続的に処理できるニューラル演算子を提案する。
我々のフレームワークは、現実世界のアプリケーションに容易に適用可能な、ニューラルネットワークの継続的な表現のための新しい方法を開く。
論文 参考訳(メタデータ) (2023-02-02T03:47:52Z) - MAgNet: Mesh Agnostic Neural PDE Solver [68.8204255655161]
気候予測は、流体シミュレーションにおける全ての乱流スケールを解決するために、微細な時間分解能を必要とする。
現在の数値モデル解法 PDEs on grids that too coarse (3km~200km on each side)
本研究では,空間的位置問合せが与えられたPDEの空間的連続解を予測する新しいアーキテクチャを設計する。
論文 参考訳(メタデータ) (2022-10-11T14:52:20Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Learning the solution operator of parametric partial differential
equations with physics-informed DeepOnets [0.0]
ディープ作用素ネットワーク(DeepONets)は、無限次元バナッハ空間間の非線形作用素を近似する実証能力によって注目されている。
DeepOnetモデルの出力をバイアスする効果的な正規化メカニズムを導入し、物理整合性を確保する新しいモデルクラスを提案する。
我々は,このシンプルかつ極めて効果的な拡張が,DeepOnetsの予測精度を大幅に向上するだけでなく,大規模なトレーニングデータセットの必要性を大幅に低減できることを示した。
論文 参考訳(メタデータ) (2021-03-19T18:15:42Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。