論文の概要: Efficient geometric Markov chain Monte Carlo for nonlinear Bayesian
inversion enabled by derivative-informed neural operators
- arxiv url: http://arxiv.org/abs/2403.08220v1
- Date: Wed, 13 Mar 2024 03:45:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:50:02.816550
- Title: Efficient geometric Markov chain Monte Carlo for nonlinear Bayesian
inversion enabled by derivative-informed neural operators
- Title(参考訳): 非線形ベイジアンに対する効率的な幾何学的マルコフ連鎖モンテカルロ
デリバティブインフォームド・ニューラル演算子によって実現されるインバージョン
- Authors: Lianghao Cao, Thomas O'Leary-Roseberry, Omar Ghattas
- Abstract要約: 幾何学的マルコフ連鎖モンテカルロ(MCMC)の高速化のための演算子学習手法を提案する。
本稿では,インプット-アウトプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット・トレーニング・サンプルを用いて,微分型演算子学習(O'Leary-Roseberry et al.,J. Comput. Phys.,496 (2024)の拡張について述べる。
- 参考スコア(独自算出の注目度): 2.0564549686015594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an operator learning approach to accelerate geometric Markov chain
Monte Carlo (MCMC) for solving infinite-dimensional nonlinear Bayesian inverse
problems. While geometric MCMC employs high-quality proposals that adapt to
posterior local geometry, it requires computing local gradient and Hessian
information of the log-likelihood, incurring a high cost when the
parameter-to-observable (PtO) map is defined through expensive model
simulations. We consider a delayed-acceptance geometric MCMC method driven by a
neural operator surrogate of the PtO map, where the proposal is designed to
exploit fast surrogate approximations of the log-likelihood and,
simultaneously, its gradient and Hessian. To achieve a substantial speedup, the
surrogate needs to be accurate in predicting both the observable and its
parametric derivative (the derivative of the observable with respect to the
parameter). Training such a surrogate via conventional operator learning using
input--output samples often demands a prohibitively large number of model
simulations. In this work, we present an extension of derivative-informed
operator learning [O'Leary-Roseberry et al., J. Comput. Phys., 496 (2024)]
using input--output--derivative training samples. Such a learning method leads
to derivative-informed neural operator (DINO) surrogates that accurately
predict the observable and its parametric derivative at a significantly lower
training cost than the conventional method. Cost and error analysis for reduced
basis DINO surrogates are provided. Numerical studies on PDE-constrained
Bayesian inversion demonstrate that DINO-driven MCMC generates effective
posterior samples 3--9 times faster than geometric MCMC and 60--97 times faster
than prior geometry-based MCMC. Furthermore, the training cost of DINO
surrogates breaks even after collecting merely 10--25 effective posterior
samples compared to geometric MCMC.
- Abstract(参考訳): 無限次元非線形ベイズ逆問題の解法として,幾何学的マルコフ連鎖モンテカルロ(MCMC)を高速化する演算子学習手法を提案する。
幾何学的MCMCでは、後部局所幾何学に適合する高品質な提案が採用されているが、パラメータ・トゥ・オブザーバブル(PtO)マップが高価なモデルシミュレーションによって定義される場合、計算局所勾配とログのようなヘッセン情報を必要とする。
本稿では,PtOマップのニューラル演算子サロゲートによって駆動される遅延受容幾何学的MCMC法について考察する。
かなりのスピードアップを達成するためには、サロゲートは観測可能な微分とそのパラメトリックな微分(パラメータに関して観測可能な微分)を正確に予測する必要がある。
このようなサロゲートを従来の演算子学習でトレーニングするには、入力出力サンプルを多用することが多い。
本稿では,インプット-アウトプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット-インプット・トレーニング・サンプルを用いて,微分インフォームド・オペレータ学習(O'Leary-Roseberry et al , J. Comput. Phys., 496 (2024)))の拡張について述べる。
このような学習方法は、従来の方法よりも格段に低いトレーニングコストで観測可能とそのパラメトリック誘導体を正確に予測するデリバティブインフォームド・ニューラル演算子(DINO)の代理となる。
還元基底DINOサロゲートのコスト及び誤差解析を行う。
PDE制約のベイズ反転に関する数値的研究により、DINO駆動のMCMCは、幾何学的MCMCよりも3~9倍、幾何学的MCMCより60~97倍、効果的な後部サンプルを生成することが示された。
さらに、DINOサロゲートのトレーニングコストは、幾何学的MCMCと比較して10~25個の有効な後部サンプルのみを採取した後でも低下する。
関連論文リスト
- LazyDINO: Fast, scalable, and efficiently amortized Bayesian inversion via structure-exploiting and surrogate-driven measure transport [2.13309333425771]
本稿では,高次元非線形逆問題に対する高速でスケーラブルで効率的に補正された解に対する輸送マップ変分推定法であるLazyDinoについて述べる。
本手法は,PtOマップとヤコビアンとの結合サンプルを用いて,PtOマップの微分インフォームド・ニューラルサロゲートを構成するオフライン位相からなる。
オンラインフェーズでは、観測データを与えられた場合、遅延マップの代理駆動学習を用いて、素早い後部近似を求める。
論文 参考訳(メタデータ) (2024-11-19T18:48:00Z) - Learning Energy-Based Prior Model with Diffusion-Amortized MCMC [89.95629196907082]
非収束短距離MCMCを用いた事前及び後方サンプリングによる潜時空間EMM学習の一般的な実践は、さらなる進歩を妨げている。
本稿では,MCMCサンプリングのための単純だが効果的な拡散型アモータイズ手法を導入し,それに基づく潜時空間EMMのための新しい学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-05T00:23:34Z) - Bayesian Decision Trees Inspired from Evolutionary Algorithms [64.80360020499555]
我々は、マルコフ連鎖モンテカルロ(MCMC)を本質的に並列なアルゴリズムであるシーケンシャルモンテカルロ(SMC)に置き換えることを提案する。
実験により、SMCと進化的アルゴリズム(EA)を組み合わせることで、MCMCの100倍のイテレーションでより正確な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-05-30T06:17:35Z) - Object based Bayesian full-waveform inversion for shear elastography [0.0]
組織中の異常画像のせん断エラストグラフィーにおける不確かさを定量化する計算手法を開発した。
パラメータフィールドの後方確率は異常の幾何とそのせん断率を表わす。
滑らかで不規則な形状の合成2次元試験に対するアプローチを実証する。
論文 参考訳(メタデータ) (2023-05-11T08:25:25Z) - Variational Inference for Neyman-Scott Processes [1.4467794332678536]
Neyman-Scottプロセス(NSP)は、クラスタ階層のモデルポイントや時間イベントに、さまざまな分野に適用されている。
NSPに対する第1変分推論 (VI) アルゴリズムを開発し、適切な変分後点過程分布の2つの例を示す。
論文 参考訳(メタデータ) (2023-03-07T07:32:10Z) - MM Algorithms to Estimate Parameters in Continuous-time Markov Chains [0.0]
遷移率をパラメータの集合上の関数とするパラメトリックCTMCについて紹介する。
2つの学習シナリオをカバーするパラメトリックCTMCの反復的推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-16T21:25:27Z) - Gaussian process regression and conditional Karhunen-Lo\'{e}ve models
for data assimilation in inverse problems [68.8204255655161]
偏微分方程式モデルにおけるデータ同化とパラメータ推定のためのモデル逆アルゴリズムCKLEMAPを提案する。
CKLEMAP法は標準的なMAP法に比べてスケーラビリティがよい。
論文 参考訳(メタデータ) (2023-01-26T18:14:12Z) - Orthogonal Matrix Retrieval with Spatial Consensus for 3D Unknown-View
Tomography [58.60249163402822]
未知視トモグラフィ(UVT)は、未知のランダムな向きで2次元投影から3次元密度マップを再構成する。
提案したOMRはより堅牢で、従来の最先端のOMRアプローチよりも大幅に性能が向上している。
論文 参考訳(メタデータ) (2022-07-06T21:40:59Z) - Knowledge Removal in Sampling-based Bayesian Inference [86.14397783398711]
単一のデータ削除要求が来ると、企業は大量のリソースで学んだモデル全体を削除する必要があるかもしれない。
既存の研究は、明示的にパラメータ化されたモデルのためにデータから学んだ知識を取り除く方法を提案する。
本稿では,MCMCのための機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-24T10:03:01Z) - No MCMC for me: Amortized sampling for fast and stable training of
energy-based models [62.1234885852552]
エネルギーベースモデル(EBM)は、不確実性を表す柔軟で魅力的な方法である。
本稿では,エントロピー規則化ジェネレータを用いてEMMを大規模に訓練し,MCMCサンプリングを記憶する簡単な方法を提案する。
次に、最近提案されたジョイント・エナジー・モデル(JEM)に推定器を適用し、元の性能と高速で安定したトレーニングとを一致させる。
論文 参考訳(メタデータ) (2020-10-08T19:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。