論文の概要: Neural Green's Operators for Parametric Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2406.01857v1
- Date: Tue, 4 Jun 2024 00:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 20:32:51.352851
- Title: Neural Green's Operators for Parametric Partial Differential Equations
- Title(参考訳): パラメトリック部分微分方程式に対するニューラルグリーン演算子
- Authors: Hugo Melchers, Joost Prins, Michael Abdelmalik,
- Abstract要約: この研究は、線形偏微分方程式(PDE)のパラメトリック族に対する解演算子を学習する新しいニューラル演算子ネットワークアーキテクチャであるニューラルグリーン演算子(NGO)を導入する。
NGOはディープ・オペレーター・ネットワーク(DeepONets)や可変ミメティック・オペレーター・ネットワーク(VarMiONs)に類似している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces neural Green's operators (NGOs), a novel neural operator network architecture that learns the solution operator for a parametric family of linear partial differential equations (PDEs). Our construction of NGOs is derived directly from the Green's formulation of such a solution operator. Similar to deep operator networks (DeepONets) and variationally mimetic operator networks (VarMiONs), NGOs constitutes an expansion of the solution to the PDE in terms of basis functions, that is returned from a sub-network, contracted with coefficients, that are returned from another sub-network. However, in accordance with the Green's formulation, NGOs accept weighted averages of the input functions, rather than sampled values thereof, as is the case in DeepONets and VarMiONs. Application of NGOs to canonical linear parametric PDEs shows that, while they remain competitive with DeepONets, VarMiONs and Fourier neural operators when testing on data that lie within the training distribution, they robustly generalize when testing on finer-scale data generated outside of the training distribution. Furthermore, we show that the explicit representation of the Green's function that is returned by NGOs enables the construction of effective preconditioners for numerical solvers for PDEs.
- Abstract(参考訳): この研究は、線形偏微分方程式(PDE)のパラメトリック族に対する解演算子を学習するニューラルネットワークアーキテクチャであるニューラルグリーン演算子(NGO)を導入している。
我々のNGOの構成は、そのような解作用素のグリーンの定式化から直接導かれる。
ディープ・オペレーター・ネットワーク(DeepONets)や変分ミメティック・オペレーター・ネットワーク(VarMiONs)と同様に、NGOはPDEへの解の拡張を構成する。
しかし、グリーンの定式化に従って、NGOはDeepONetsやVarMiONsのように、サンプル値ではなく入力関数の重み付き平均を受け入れる。
標準線形パラメトリックPDEへのNGOの適用は、トレーニング分布内にあるデータでテストする場合、DeepONets、VarMiONs、Fourierニューラル演算子と競合する一方で、トレーニング分布外のより詳細なデータでテストする場合、堅牢に一般化することを示している。
さらに,NGOによって返却されるグリーン関数の明示的表現により,PDEの数値解法に有効なプレコンディショナーの構築が可能となることを示す。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Self-supervised Pretraining for Partial Differential Equations [0.0]
本稿では、トランスフォーマーに基づくニューラルネットワークアーキテクチャの最近の進歩を活用し、ニューラルPDEソルバを構築するための新しいアプローチについて述べる。
我々のモデルは、ネットワークを再トレーニングすることなく、PDEパラメータの異なる値に対するソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-07-03T16:39:32Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Physics-informed Discretization-independent Deep Compositional Operator Network [1.2430809884830318]
我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
論文 参考訳(メタデータ) (2024-04-21T12:41:30Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - Variationally Mimetic Operator Networks [1.7667202894248826]
本研究は, 近似変分あるいは弱定式化から得られる数値解の形式を模倣した, 演算子ネットワークのための新しいアーキテクチャについて述べる。
これらのアイデアの汎用楕円型PDEへの応用は、変動緩和作用素ネットワーク(VarMiON)につながる。
VarMiONソリューションにおけるエラーの分析では、トレーニングデータにおけるエラー、トレーニングエラー、入力および出力関数における二次誤差、およびトレーニングデータセットにおけるテスト入力関数と最も近い関数の間の距離を測定する"カバレッジエラー"が含まれていることが明らかになった。
論文 参考訳(メタデータ) (2022-09-26T17:39:53Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。