論文の概要: An optimal Petrov-Galerkin framework for operator networks
- arxiv url: http://arxiv.org/abs/2503.04024v1
- Date: Thu, 06 Mar 2025 02:21:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:57:20.026175
- Title: An optimal Petrov-Galerkin framework for operator networks
- Title(参考訳): 演算子ネットワークのためのペトロフ・ガレルキン最適フレームワーク
- Authors: Philip Charles, Deep Ray, Yue Yu, Joost Prins, Hugo Melchers, Michael R. A. Abdelmalik, Jeffrey Cochran, Assad A. Oberai, Thomas J. R. Hughes, Mats G. Larson,
- Abstract要約: 我々はペトロフ・ガレルキン変分模倣演算子ネットワーク(PG-VarMiON)と呼ばれる演算子ネットワークフレームワークを提案する。
PG−VarMiONは、PDEデータと対応するPDEソリューションとからなるラベル付きデータセットを用いて教師付き方法で訓練される。
PG-VarMiONの近似誤差推定を導出し,様々な誤差源の寄与を明らかにする。
- 参考スコア(独自算出の注目度): 6.74215163873406
- License:
- Abstract: The optimal Petrov-Galerkin formulation to solve partial differential equations (PDEs) recovers the best approximation in a specified finite-dimensional (trial) space with respect to a suitable norm. However, the recovery of this optimal solution is contingent on being able to construct the optimal weighting functions associated with the trial basis. While explicit constructions are available for simple one- and two-dimensional problems, such constructions for a general multidimensional problem remain elusive. In the present work, we revisit the optimal Petrov-Galerkin formulation through the lens of deep learning. We propose an operator network framework called Petrov-Galerkin Variationally Mimetic Operator Network (PG-VarMiON), which emulates the optimal Petrov-Galerkin weak form of the underlying PDE. The PG-VarMiON is trained in a supervised manner using a labeled dataset comprising the PDE data and the corresponding PDE solution, with the training loss depending on the choice of the optimal norm. The special architecture of the PG-VarMiON allows it to implicitly learn the optimal weighting functions, thus endowing the proposed operator network with the ability to generalize well beyond the training set. We derive approximation error estimates for PG-VarMiON, highlighting the contributions of various error sources, particularly the error in learning the true weighting functions. Several numerical results are presented for the advection-diffusion equation to demonstrate the efficacy of the proposed method. By embedding the Petrov-Galerkin structure into the network architecture, PG-VarMiON exhibits greater robustness and improved generalization compared to other popular deep operator frameworks, particularly when the training data is limited.
- Abstract(参考訳): 偏微分方程式(PDE)を解く最適ペトロフ・ガレルキンの定式化は、適当なノルムに関して指定された有限次元(有理)空間の最適近似を回復する。
しかし、この最適解の回復は、試行基礎に付随する最適な重み付け関数を構築できることを前提としている。
単純な1次元および2次元問題に対して明示的な構成は可能であるが、一般的な多次元問題に対するそのような構成はいまだ解明されていない。
本研究では,ディープラーニングのレンズによるペトロフ・ガレルキンの最適定式化について再検討する。
本稿ではペトロフ・ガレルキン変分ミメティック・オペレーター・ネットワーク (PG-VarMiON) と呼ばれるオペレータ・ネットワーク・フレームワークを提案し, 基礎となるPDEの最適ペトロフ・ガレルキン弱形式をエミュレートする。
PG−VarMiONは、最適基準の選択に応じて、PDEデータと対応するPDEソリューションとからなるラベル付きデータセットを用いて教師付き方法でトレーニングされる。
PG-VarMiONの特別なアーキテクチャにより、最適重み付け関数を暗黙的に学習することができ、提案した演算子ネットワークにトレーニングセットをはるかに越えて一般化する能力を与える。
我々はPG-VarMiONの近似誤差推定を導出し、様々な誤差源の寄与、特に真の重み付け関数の学習における誤差を強調した。
提案手法の有効性を示すために, 対流拡散方程式の数値計算を行った。
ペトロフ・ガレルキン構造をネットワークアーキテクチャに埋め込むことにより、PG-VarMiONは、特にトレーニングデータに制限がある場合、他の一般的な深層演算子フレームワークと比較して、より堅牢で、一般化が向上する。
関連論文リスト
- PIG: Physics-Informed Gaussians as Adaptive Parametric Mesh Representations [5.4087282763977855]
本稿では,ガウス関数を用いた特徴埋め込みと軽量ニューラルネットワークを組み合わせた物理インフォームドガウス(PIG)を提案する。
提案手法では,各ガウス平均と分散にトレーニング可能なパラメータを用い,トレーニング中の位置と形状を動的に調整する。
実験の結果,複雑なPDEを解くための堅牢なツールとしての可能性を示した。
論文 参考訳(メタデータ) (2024-12-08T16:58:29Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Variational Bayesian Optimal Experimental Design with Normalizing Flows [0.837622912636323]
変分OEDは、可能性評価なしでEIGの下位境界を推定する。
本稿では,vOEDにおける変分分布を表現するための正規化フローについて紹介する。
その結果,4〜5層の合成により,より低いEIG推定バイアスが得られることがわかった。
論文 参考訳(メタデータ) (2024-04-08T14:44:21Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Bayesian Sequential Optimal Experimental Design for Nonlinear Models
Using Policy Gradient Reinforcement Learning [0.0]
この逐次最適設計(sOED)問題を有限水平部分観測可能なマルコフ決定過程(POMDP)として定式化する。
連続確率変数、一般のガウス的非ガウス的後部モデル、高価な非線形フォワードモデルに対応するために構築されている。
我々は、強化学習から政策勾配(PG)法を用いてsOEDポリシーを数値的に解き、sOEDのPG式を導出し、証明する。
PG-sOED法全体を線形ガウスベンチマークで検証し, 汚染源逆転問題により, バッチおよびグレディ設計よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:47:31Z) - Stochastic Learning Approach to Binary Optimization for Optimal Design
of Experiments [0.0]
本稿では,偏微分方程式などの数学モデルによるベイズ逆問題に対する最適実験設計 (OED) のための二項最適化への新しいアプローチを提案する。
OEDユーティリティ関数、すなわち正規化された最適性勾配はベルヌーイ分布に対する期待の形で目的関数にキャストされる。
この目的を確率的最適化ルーチンを用いて最適な観測方針を求めることで解決する。
論文 参考訳(メタデータ) (2021-01-15T03:54:12Z) - Optimal Bayesian experimental design for subsurface flow problems [77.34726150561087]
本稿では,設計ユーティリティ機能のためのカオス拡張サロゲートモデル(PCE)の開発のための新しいアプローチを提案する。
この手法により,対象関数に対する適切な品質応答面の導出が可能となり,計算予算は複数の単点評価に匹敵する。
論文 参考訳(メタデータ) (2020-08-10T09:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。