論文の概要: Residual-based error correction for neural operator accelerated
infinite-dimensional Bayesian inverse problems
- arxiv url: http://arxiv.org/abs/2210.03008v1
- Date: Thu, 6 Oct 2022 15:57:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:08:11.458076
- Title: Residual-based error correction for neural operator accelerated
infinite-dimensional Bayesian inverse problems
- Title(参考訳): 無限次元ベイズ逆問題によるニューラル作用素の残留誤差補正
- Authors: Lianghao Cao, Thomas O'Leary-Roseberry, Prashant K. Jha, J. Tinsley
Oden, Omar Ghattas
- Abstract要約: 関数空間間の非線形写像のニューラルネットワーク表現を用いて無限次元ベイズ逆問題を高速化する。
誤差補正の訓練されたニューラル演算子が近似誤差を2次的に低減できることを示す。
トレーニングされたニューラル演算子を用いて生成された2つのBIPの後方表現は、誤り訂正によって大きく、一貫して拡張されていることを示す。
- 参考スコア(独自算出の注目度): 3.2548794659022393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore using neural operators, or neural network representations of
nonlinear maps between function spaces, to accelerate infinite-dimensional
Bayesian inverse problems (BIPs) with models governed by nonlinear parametric
partial differential equations (PDEs). Neural operators have gained significant
attention in recent years for their ability to approximate the
parameter-to-solution maps defined by PDEs using as training data solutions of
PDEs at a limited number of parameter samples. The computational cost of BIPs
can be drastically reduced if the large number of PDE solves required for
posterior characterization are replaced with evaluations of trained neural
operators. However, reducing error in the resulting BIP solutions via reducing
the approximation error of the neural operators in training can be challenging
and unreliable. We provide an a priori error bound result that implies certain
BIPs can be ill-conditioned to the approximation error of neural operators,
thus leading to inaccessible accuracy requirements in training. To reliably
deploy neural operators in BIPs, we consider a strategy for enhancing the
performance of neural operators, which is to correct the prediction of a
trained neural operator by solving a linear variational problem based on the
PDE residual. We show that a trained neural operator with error correction can
achieve a quadratic reduction of its approximation error, all while retaining
substantial computational speedups of posterior sampling when models are
governed by highly nonlinear PDEs. The strategy is applied to two numerical
examples of BIPs based on a nonlinear reaction--diffusion problem and
deformation of hyperelastic materials. We demonstrate that posterior
representations of the two BIPs produced using trained neural operators are
greatly and consistently enhanced by error correction.
- Abstract(参考訳): 関数空間間の非線形写像のニューラルネットワーク表現であるニューラル演算子を用いて,非線形パラメトリック偏微分方程式(pdes)をモデルとした無限次元ベイズ逆問題(bips)を高速化する。
近年,PDEが定義するパラメータ・ツー・ソリューションマップを,限られたパラメータ・サンプル数でPDEのトレーニングデータ・ソリューションとして活用する能力に注目が集まっている。
後部評価に必要な多くのPDE解が、訓練されたニューラル演算子の評価に置き換えられると、BIPの計算コストを大幅に削減できる。
しかし、トレーニング中のニューラル演算子の近似誤差を減らして得られるBIP解の誤差を低減することは困難であり、信頼できない。
ニューラル演算子の近似誤差に特定のBIPを悪条件にすることができることを示し、トレーニングにおいて到達不能な精度要件を導出する先験誤差境界結果を提供する。
ニューラル演算子をbipsに確実に展開するためには,pde残差に基づく線形変分問題を解くことにより,訓練されたニューラルオペレータの予測を補正する,ニューラルオペレータの性能向上戦略を検討する。
モデルが高非線形PDEによって制御される場合, 後続サンプリングの計算速度をかなり向上させながら, 誤差補正の訓練されたニューラル演算子が近似誤差を2次的に低減できることを示す。
この戦略は、非線形反応拡散問題と超弾性材料の変形に基づくBIPの2つの数値例に適用する。
トレーニングされたニューラル演算子を用いて生成された2つのBIPの後方表現は、誤り訂正によって大きく、一貫して拡張されていることを示す。
関連論文リスト
- DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Derivative-enhanced Deep Operator Network [3.169190797722534]
デリバティブ強化ディープオペレータネットワーク(DE-DeepONet)
システムは、訓練コストを削減するために、DeepONetに入力された高次元パラメータの線形次元の削減を取り入れている。
微分損失は、フーリエ神経演算子(FNO)のような他の神経演算子を強化するために拡張することができる
論文 参考訳(メタデータ) (2024-02-29T15:18:37Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Residual-Based Error Corrector Operator to Enhance Accuracy and
Reliability of Neural Operator Surrogates of Nonlinear Variational
Boundary-Value Problems [0.0]
この研究は、ニューラル作用素を介してパラメトリック偏微分方程式のクラスの解作用素を近似する手法の開発に焦点をあてる。
ニューラルネットワークの精度の予測不可能さは、推論、最適化、制御の下流問題における彼らの応用に影響を与える。
論文 参考訳(メタデータ) (2023-06-21T06:30:56Z) - Variational operator learning: A unified paradigm marrying training
neural operators and solving partial differential equations [9.148052787201797]
ニューラル演算子を訓練し、変分形式でPDEを解くための統一的な枠組みを提供する新しいパラダイムを提案する。
ラベルなしのトレーニングセットと5ラベルのみのシフトセットにより、VOLは、未ラベルデータの量に関して、そのテストエラーが電力法則で減少して解演算子を学習する。
論文 参考訳(メタデータ) (2023-04-09T13:20:19Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs [34.179984253109346]
ニューラル作用素の'hallow'(線形)バージョンを数学的に詳細に定式化する。
次に、ベイズ深層学習の近似手法を用いて、この解析処理を一般のディープニューラル演算子に拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
論文 参考訳(メタデータ) (2022-08-02T16:10:27Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。