論文の概要: Parameterizing uncertainty by deep invertible networks, an application
to reservoir characterization
- arxiv url: http://arxiv.org/abs/2004.07871v1
- Date: Thu, 16 Apr 2020 18:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:20:24.523354
- Title: Parameterizing uncertainty by deep invertible networks, an application
to reservoir characterization
- Title(参考訳): 深い可逆ネットワークによるパラメータ化の不確実性 : 貯留層評価への応用
- Authors: Gabrio Rizzuti and Ali Siahkoohi and Philipp A. Witte and Felix J.
Herrmann
- Abstract要約: フルウェーブフォーム逆転に対する不確かさの定量化は、問題の条件の不確かさを確率論的に特徴づける。
本研究では,モデル空間へのガウス的ランダム入力を,実際の後部分布からサンプリングしたかのように「前方」に学習するディープネットワークを特徴とするアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.9176056742068814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty quantification for full-waveform inversion provides a
probabilistic characterization of the ill-conditioning of the problem,
comprising the sensitivity of the solution with respect to the starting model
and data noise. This analysis allows to assess the confidence in the candidate
solution and how it is reflected in the tasks that are typically performed
after imaging (e.g., stratigraphic segmentation following reservoir
characterization). Classically, uncertainty comes in the form of a probability
distribution formulated from Bayesian principles, from which we seek to obtain
samples. A popular solution involves Monte Carlo sampling. Here, we propose
instead an approach characterized by training a deep network that "pushes
forward" Gaussian random inputs into the model space (representing, for
example, density or velocity) as if they were sampled from the actual posterior
distribution. Such network is designed to solve a variational optimization
problem based on the Kullback-Leibler divergence between the posterior and the
network output distributions. This work is fundamentally rooted in recent
developments for invertible networks. Special invertible architectures, besides
being computational advantageous with respect to traditional networks, do also
enable analytic computation of the output density function. Therefore, after
training, these networks can be readily used as a new prior for a related
inversion problem. This stands in stark contrast with Monte-Carlo methods,
which only produce samples. We validate these ideas with an application to
angle-versus-ray parameter analysis for reservoir characterization.
- Abstract(参考訳): フルウェーブフォームインバージョンに対する不確かさの定量化は、開始モデルとデータノイズに対する解の感度を含む問題の条件付けの確率論的特徴を与える。
この分析により、候補解の信頼性と、画像化後に通常行われるタスク(例えば、貯水池のキャラクタリゼーションに続く層図のセグメンテーション)にどのように反映されるかを評価することができる。
古典的には、不確実性はベイズ原理から定式化された確率分布の形で現れ、そこからサンプルを得る。
一般的な解決策はモンテカルロサンプリングである。
そこで本研究では,ガウスのランダム入力をモデル空間(密度や速度など)に「前進させる」ディープネットワークを,実際の後方分布からサンプリングしたかのように訓練する手法を提案する。
このようなネットワークは、後部とネットワーク出力分布間のKullback-Leibler分散に基づく変分最適化問題を解決するように設計されている。
この研究は、近年の可逆ネットワークの発展に根ざしている。
特殊非可逆アーキテクチャは、従来のネットワークに対する計算上の優位性に加えて、出力密度関数の解析的な計算も可能である。
したがって、トレーニング後、これらのネットワークは関連する反転問題の新たな前処理として容易に使用できる。
これはサンプルのみを生成するモンテカルロ法とは全く対照的である。
これらの概念を, 貯留層キャラクタリゼーションの角度逆パラメータ解析への応用により検証する。
関連論文リスト
- A probabilistic, data-driven closure model for RANS simulations with aleatoric, model uncertainty [1.8416014644193066]
本稿では,レノルズ平均Navier-Stokes (RANS) シミュレーションのためのデータ駆動閉包モデルを提案する。
パラメトリック閉包が不十分な問題領域内の領域を特定するために,完全ベイズ的定式化と余剰誘導先行法を組み合わせて提案する。
論文 参考訳(メタデータ) (2023-07-05T16:53:31Z) - Learning to solve Bayesian inverse problems: An amortized variational inference approach using Gaussian and Flow guides [0.0]
本研究では,ベイズ逆写像,すなわちデータから後部への写像を学習することで,リアルタイムな推論を可能にする手法を開発する。
我々のアプローチは、ニューラルネットワークの前方通過のコストで、所定の観測のための後部分布を提供する。
論文 参考訳(メタデータ) (2023-05-31T16:25:07Z) - Probabilistic Verification of ReLU Neural Networks via Characteristic
Functions [11.489187712465325]
我々は、周波数領域における確率理論のアイデアを用いて、ReLUニューラルネットワークの確率論的検証保証を提供する。
我々は、(深い)フィードフォワードニューラルネットワークを有限地平線上の離散力学系として解釈する。
出力集合の累積分布関数を求め,ネットワークが期待通りに動作しているかどうかを確認する。
論文 参考訳(メタデータ) (2022-12-03T05:53:57Z) - Deep Learning for the Benes Filter [91.3755431537592]
本研究では,メッシュのないニューラルネットワークによるベンズモデルの解の密度の表現に基づく新しい数値計算法を提案する。
ニューラルネットワークの領域選択におけるフィルタリングモデル方程式における非線形性の役割について論じる。
論文 参考訳(メタデータ) (2022-03-09T14:08:38Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - The Ridgelet Prior: A Covariance Function Approach to Prior
Specification for Bayesian Neural Networks [4.307812758854161]
ネットワークの出力空間における擬似ガウス過程を近似したネットワークのパラメータに対する事前分布を構築する。
これにより、ベイズニューラルネットワークが共分散関数が十分正則である任意のガウス過程を近似できるという性質が確立される。
論文 参考訳(メタデータ) (2020-10-16T16:39:45Z) - Uncertainty quantification in imaging and automatic horizon tracking: a
Bayesian deep-prior based approach [0.5156484100374059]
不確実性定量化(英: Uncertainty Quantification、UQ)は、解の不均一性とデータノイズ感度の確率論的記述を扱う。
本稿では,階層モデルを決定するために,UQが地平線追跡にどのように貢献するかに焦点を当てる。
論文 参考訳(メタデータ) (2020-04-01T04:26:33Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。