論文の概要: Scaling Up Bayesian Uncertainty Quantification for Inverse Problems
using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2101.03906v1
- Date: Mon, 11 Jan 2021 14:18:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 18:53:52.163372
- Title: Scaling Up Bayesian Uncertainty Quantification for Inverse Problems
using Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いた逆問題に対するベイズ不確かさのスケールアップ
- Authors: Shiwei Lan, Shuyi Li, Babak Shahbaba
- Abstract要約: 本稿では,エミュレーションフェーズのためのディープニューラルネットワーク(DNN)モデルに基づくベイズ推論のための新しいCESアプローチを提案する。
結果として得られるアルゴリズムは、計算効率が向上するだけでなく、トレーニングセットに対する感度も低下する。
全体として,提案手法はEmphReduced-Dimension Emulative Autoencoder Monte Carlo (DREAM)アルゴリズムと呼ばれ,物理制約された逆問題においてベイズUQを数千次元まで拡張することができる。
- 参考スコア(独自算出の注目度): 2.455468619225742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the importance of uncertainty quantification (UQ), Bayesian approach
to inverse problems has recently gained popularity in applied mathematics,
physics, and engineering. However, traditional Bayesian inference methods based
on Markov Chain Monte Carlo (MCMC) tend to be computationally intensive and
inefficient for such high dimensional problems. To address this issue, several
methods based on surrogate models have been proposed to speed up the inference
process. More specifically, the calibration-emulation-sampling (CES) scheme has
been proven to be successful in large dimensional UQ problems. In this work, we
propose a novel CES approach for Bayesian inference based on deep neural
network (DNN) models for the emulation phase. The resulting algorithm is not
only computationally more efficient, but also less sensitive to the training
set. Further, by using an Autoencoder (AE) for dimension reduction, we have
been able to speed up our Bayesian inference method up to three orders of
magnitude. Overall, our method, henceforth called \emph{Dimension-Reduced
Emulative Autoencoder Monte Carlo (DREAM)} algorithm, is able to scale Bayesian
UQ up to thousands of dimensions in physics-constrained inverse problems. Using
two low-dimensional (linear and nonlinear) inverse problems we illustrate the
validity this approach. Next, we apply our method to two high-dimensional
numerical examples (elliptic and advection-diffussion) to demonstrate its
computational advantage over existing algorithms.
- Abstract(参考訳): 不確実量化(UQ)の重要性から、逆問題に対するベイズ的アプローチは応用数学、物理学、工学において最近人気を集めている。
しかしながら、マルコフ連鎖モンテカルロ(mcmc)に基づく伝統的なベイズ推定法は、そのような高次元問題に対して計算量的かつ非効率である傾向がある。
この問題に対処するため、推測過程を高速化するために代理モデルに基づくいくつかの手法が提案されている。
より具体的には、キャリブレーション・エミュレーション・サンプリング(CES)方式は、大規模なUQ問題に成功している。
本研究では,エミュレーションフェーズのためのディープニューラルネットワーク(DNN)モデルに基づくベイズ推論のための新しいCESアプローチを提案する。
結果として得られるアルゴリズムは、計算効率が向上するだけでなく、トレーニングセットに対する感度も低下する。
さらに,次元減少のためにオートエンコーダ(AE)を用いることで,ベイズ推定法を最大3桁まで高速化することができた。
全体として、我々の手法は、従って \emph{dimension-reduced emulative autoencoder monte carlo (dream)} アルゴリズムと呼ばれ、物理学的に制約された逆問題において、ベイジアンuqを最大数千次元までスケールすることができる。
2つの低次元(線型および非線形)逆問題を用いて、このアプローチの有効性を示す。
次に,本手法を2つの高次元数値例(楕円およびアドベクション拡散)に適用し,既存のアルゴリズムに対する計算上の優位性を示す。
関連論文リスト
- Pushing the Limits of Large Language Model Quantization via the Linearity Theorem [71.3332971315821]
本稿では,階層的$ell$再構成誤差と量子化によるモデルパープレキシティ増加との直接的な関係を確立する「線形定理」を提案する。
この知見は,(1)アダマール回転とHIGGSと呼ばれるMSE最適格子を用いた単純なデータフリーLCM量子化法,(2)非一様層ごとの量子化レベルを求める問題に対する最適解の2つの新しい応用を可能にする。
論文 参考訳(メタデータ) (2024-11-26T15:35:44Z) - On Uncertainty Quantification for Near-Bayes Optimal Algorithms [2.622066970118316]
本研究では, タスク分布によって定義されたベイズ後続部を, アルゴリズムを用いてマーチンゲール後続部を構築することにより, 未知だが最適であるベイズ後続部を復元可能であることを示す。
様々な非NNアルゴリズムとNNアルゴリズムに基づく実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-28T12:42:25Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Efficient Bayesian Physics Informed Neural Networks for Inverse Problems
via Ensemble Kalman Inversion [0.0]
本稿では,高次元推論タスクにEnsemble Kalman Inversion (EKI) を用いるB-PINNの新しい効率的な推論アルゴリズムを提案する。
提案手法は,ハミルトン・モンテカルロ (HMC) ベースのB-PINNに匹敵する情報的不確実性を推定し,計算コストを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-03-13T18:15:26Z) - Entropic Neural Optimal Transport via Diffusion Processes [105.34822201378763]
本稿では,連続確率分布間のエントロピー最適輸送(EOT)計画を計算するための新しいアルゴリズムを提案する。
提案アルゴリズムは,シュリンガーブリッジ問題(Schr"odinger Bridge problem)として知られるEOTの動的バージョンのサドル点再構成に基づく。
大規模EOTの従来の手法とは対照的に,我々のアルゴリズムはエンドツーエンドであり,単一の学習ステップで構成されている。
論文 参考訳(メタデータ) (2022-11-02T14:35:13Z) - Recent advances in Bayesian optimization with applications to parameter
reconstruction in optical nano-metrology [0.0]
光ナノメートル法では 再構築が一般的な問題です
本稿では,2つのアプローチを組み合わせたベイズ目標ベクトル最適化手法を提案する。
提案手法は一般に、類似の再構成性能を達成するために、競合するどのスキームよりもモデル関数の呼び出しが少ないことが判明した。
論文 参考訳(メタデータ) (2021-07-12T15:32:15Z) - SHINE: SHaring the INverse Estimate from the forward pass for bi-level
optimization and implicit models [15.541264326378366]
近年,深層ニューラルネットワークの深度を高める手法として暗黙の深度学習が登場している。
トレーニングは双レベル問題として実行され、その計算複雑性は巨大なヤコビ行列の反復反転によって部分的に駆動される。
本稿では,この計算ボトルネックに対処する新たな手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T15:07:34Z) - Novel Deep neural networks for solving Bayesian statistical inverse [0.0]
MCMCルーチン内での前方解に対する分数的なディープニューラルネットワークに基づくアプローチを提案する。
近似誤差の推定について考察し、いくつかの数値例を通してアプローチの効率について述べる。
論文 参考訳(メタデータ) (2021-02-08T02:54:46Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。