論文の概要: Generative models and Bayesian inversion using Laplace approximation
- arxiv url: http://arxiv.org/abs/2203.07755v1
- Date: Tue, 15 Mar 2022 10:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 02:08:06.636421
- Title: Generative models and Bayesian inversion using Laplace approximation
- Title(参考訳): ラプラス近似を用いた生成モデルとベイズ反転
- Authors: Manuel Marschall, Gerd W\"ubbeler, Franko Schm\"ahling, Clemens Elster
- Abstract要約: 近年, 生成モデルを用いて高情報化の先行問題として逆問題の解法が提案されている。
導出ベイズ推定は、生成モデルの低次元多様体を用いたアプローチとは対照的に、一貫したものであることを示す。
- 参考スコア(独自算出の注目度): 0.3670422696827525
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Bayesian approach to solving inverse problems relies on the choice of a
prior. This critical ingredient allows the formulation of expert knowledge or
physical constraints in a probabilistic fashion and plays an important role for
the success of the inference. Recently, Bayesian inverse problems were solved
using generative models as highly informative priors. Generative models are a
popular tool in machine learning to generate data whose properties closely
resemble those of a given database. Typically, the generated distribution of
data is embedded in a low-dimensional manifold. For the inverse problem, a
generative model is trained on a database that reflects the properties of the
sought solution, such as typical structures of the tissue in the human brain in
magnetic resonance (MR) imaging. The inference is carried out in the
low-dimensional manifold determined by the generative model which strongly
reduces the dimensionality of the inverse problem. However, this proceeding
produces a posterior that admits no Lebesgue density in the actual variables
and the accuracy reached can strongly depend on the quality of the generative
model. For linear Gaussian models we explore an alternative Bayesian inference
based on probabilistic generative models which is carried out in the original
high-dimensional space. A Laplace approximation is employed to analytically
derive the required prior probability density function induced by the
generative model. Properties of the resulting inference are investigated.
Specifically, we show that derived Bayes estimates are consistent, in contrast
to the approach employing the low-dimensional manifold of the generative model.
The MNIST data set is used to construct numerical experiments which confirm our
theoretical findings.
- Abstract(参考訳): 逆問題の解法に対するベイズ的アプローチは、事前の選択に依存する。
この重要な要素は、確率的な方法で専門家の知識や物理的な制約を定式化し、推論の成功に重要な役割を果たす。
近年,生成モデルを用いてベイズ逆問題を解く手法が提案されている。
生成モデル(Generative model)は、あるデータベースによく似た特性を持つデータを生成する機械学習の一般的なツールである。
通常、生成されたデータの分布は低次元多様体に埋め込まれる。
逆問題に対して、生成モデルは、磁気共鳴(mr)イメージングにおけるヒト脳の組織の典型的な構造のような、要求される溶液の性質を反映するデータベース上で訓練される。
この推論は、逆問題の次元性を強く減少させる生成モデルによって決定される低次元多様体において実行される。
しかし、この進行により、実際の変数にルベーグ密度がないことが認められ、到達した精度は生成モデルの品質に強く依存する。
線形ガウスモデルに対しては、元の高次元空間で実行される確率的生成モデルに基づく代替ベイズ推論を探求する。
生成モデルによって誘導される必要な事前確率密度関数を解析的に導出するためにラプラス近似を用いる。
その結果, 推定結果の特性について検討した。
具体的には、導出ベイズ推定が、生成モデルの低次元多様体を用いたアプローチとは対照的に一貫したものであることを示す。
mnistデータセットは,理論的な知見を裏付ける数値実験を行うために用いられる。
関連論文リスト
- Inflationary Flows: Calibrated Bayesian Inference with Diffusion-Based Models [0.0]
本稿では,拡散モデルを用いてベイズ推定を行う方法を示す。
本稿では,新しいノイズスケジュールを用いて,標準的なDBMトレーニングを通じてそのようなマップを学習する方法を示す。
その結果は、低次元の潜在空間上で一意に定義される非常に表現性の高い生成モデルのクラスである。
論文 参考訳(メタデータ) (2024-07-11T19:58:19Z) - Latent diffusion models for parameterization and data assimilation of facies-based geomodels [0.0]
拡散モデルは、ランダムノイズを特徴とする入力場から新しい地質学的実現を生成するために訓練される。
遅延拡散モデルは、ジオモデリングソフトウェアからのサンプルと視覚的に整合した実現を提供する。
論文 参考訳(メタデータ) (2024-06-21T01:32:03Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Data-driven Uncertainty Quantification in Computational Human Head
Models [0.6745502291821954]
現代の生物モデルシミュレーションは、非常に高い計算コストと高次元の入力と出力に関連付けられている。
本研究では、計算ヘッドモデルの不確実性定量化(UQ)のために、2段階のデータ駆動型学習ベースフレームワークを提案する。
代理モデルが計算モデルの高精度な近似を提供するとともに,計算コストを大幅に削減することを示した。
論文 参考訳(メタデータ) (2021-10-29T05:42:31Z) - Latent Gaussian Model Boosting [0.0]
ツリーブースティングは多くのデータセットに対して優れた予測精度を示す。
シミュレーションおよび実世界のデータ実験において,既存の手法と比較して予測精度が向上した。
論文 参考訳(メタデータ) (2021-05-19T07:36:30Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。