論文の概要: Bernstein Flows for Flexible Posteriors in Variational Bayes
- arxiv url: http://arxiv.org/abs/2202.05650v2
- Date: Fri, 23 Feb 2024 16:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 19:03:00.412758
- Title: Bernstein Flows for Flexible Posteriors in Variational Bayes
- Title(参考訳): 変分ベイズにおける柔軟後流のバーンスタイン流れ
- Authors: Oliver D\"urr and Stephan H\"orling and Daniel Dold and Ivonne Kovylov
and Beate Sick
- Abstract要約: 変分推論(VI)は、最適化によって後部を計算するのが難しい手法である。
本稿では,Bernstein Flow Variational Inference (BF-VI)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational inference (VI) is a technique to approximate difficult to compute
posteriors by optimization. In contrast to MCMC, VI scales to many
observations. In the case of complex posteriors, however, state-of-the-art VI
approaches often yield unsatisfactory posterior approximations. This paper
presents Bernstein flow variational inference (BF-VI), a robust and easy-to-use
method, flexible enough to approximate complex multivariate posteriors. BF-VI
combines ideas from normalizing flows and Bernstein polynomial-based
transformation models. In benchmark experiments, we compare BF-VI solutions
with exact posteriors, MCMC solutions, and state-of-the-art VI methods
including normalizing flow based VI. We show for low-dimensional models that
BF-VI accurately approximates the true posterior; in higher-dimensional models,
BF-VI outperforms other VI methods. Further, we develop with BF-VI a Bayesian
model for the semi-structured Melanoma challenge data, combining a CNN model
part for image data with an interpretable model part for tabular data, and
demonstrate for the first time how the use of VI in semi-structured models.
- Abstract(参考訳): 変分推論(VI)は、最適化によって後部を計算するのが難しい手法である。
MCMCとは対照的に、VIは多くの観測にスケールする。
しかし、複雑な後肢の場合、最先端のVIアプローチはしばしば不満足な後肢近似をもたらす。
本稿では, 複素多変量後部を近似できるほど柔軟で, 頑健で使いやすいBernstein Flow Variational Inference (BF-VI) を提案する。
bf-viは正規化フローとベルンシュタイン多項式に基づく変換モデルからアイデアを合成する。
ベンチマーク実験では,BF-VI解と正確な後部解,MCMC解,フローベースVIの正規化を含む最先端VI法を比較した。
我々は,BF-VIが真の後部を正確に近似する低次元モデルについて,BF-VIが他のVI法よりも優れていることを示す。
さらに,半構造化メラノーマ挑戦データに対するベイズモデルBF-VIを開発し,画像データに対するCNNモデル部と表型データに対する解釈可能なモデル部とを組み合わせて,半構造化モデルにおけるVIの使用法を初めて示す。
関連論文リスト
- You Only Accept Samples Once: Fast, Self-Correcting Stochastic Variational Inference [0.0]
YOASOVI(ヨアソビ)は、ベイズ系大規模モデルにおける変分推論(VI)の高速で自己補正的な直観最適化を行うアルゴリズムである。
これを実現するために、各イテレーションで VI に使用される目的関数について利用可能な情報を活用し、通常のモンテカルロサンプリングを受け入れサンプリングに置き換える。
論文 参考訳(メタデータ) (2024-06-05T01:28:53Z) - Amortized Variational Inference: When and Why? [17.1222896154385]
償却変分推論(A-VI)は共通の推論関数を学習し、各観測結果を対応する潜伏変数の近似後方にマッピングする。
A-VI が F-VI の最適解を得るために必要で十分かつ検証可能な潜在変数モデル上で条件を導出する。
論文 参考訳(メタデータ) (2023-07-20T16:45:22Z) - FineMorphs: Affine-diffeomorphic sequences for regression [1.1421942894219896]
モデル状態は学習中に滑らかなベクトル場によって生成される微分同相によって最適に「再形」される。
アフィン変換とベクトル場は最適制御設定内で最適化される。
このモデルは次元を自然に減らし(あるいは増大させる)、最適なベクトル場を通して大きなデータセットに適応することができる。
論文 参考訳(メタデータ) (2023-05-26T20:54:18Z) - Black Box Variational Inference with a Deterministic Objective: Faster,
More Accurate, and Even More Black Box [14.362625828893654]
決定論的ADVI(DADVI)を導入し,ADVIの問題点に対処する。
DADVIは、難解なMFVBの目的を固定されたモンテカルロ近似に置き換える。
DADVIとSAAは,非常に高次元であっても比較的少数の試料で良好な性能を示すことを示す。
論文 参考訳(メタデータ) (2023-04-11T22:45:18Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - Amortized Variational Inference: A Systematic Review [0.0]
変分推論(VI)の中核となる原理は、複雑な後続確率密度の統計的推論問題を、トラクタブルな最適化問題に変換することである。
従来のVIアルゴリズムは大規模データセットには拡張性がなく、データポイントのアウトオブバウンドを容易に推測できない。
ブラックボックスやアモールタイズVIのようなこの分野の最近の進歩は、これらの問題に対処するのに役立っている。
論文 参考訳(メタデータ) (2022-09-22T09:45:10Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - Loss function based second-order Jensen inequality and its application
to particle variational inference [112.58907653042317]
粒子変分推論(PVI)は、後部分布の実験的近似としてモデルのアンサンブルを用いる。
PVIは、最適化されたモデルの多様性を保証するために、各モデルを反発力で反復的に更新する。
我々は,新たな一般化誤差を導出し,モデルの多様性を高めて低減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T12:13:51Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - Meta-Learning Divergences of Variational Inference [49.164944557174294]
変分推論(VI)は、近似ベイズ推論において重要な役割を果たす。
本稿では,興味ある課題に適した分散度を学習するためのメタ学習アルゴリズムを提案する。
提案手法はガウス混合分布近似の標準VIより優れていることを示す。
論文 参考訳(メタデータ) (2020-07-06T17:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。