論文の概要: Mind the Gap when Conditioning Amortised Inference in Sequential
Latent-Variable Models
- arxiv url: http://arxiv.org/abs/2101.07046v2
- Date: Wed, 17 Mar 2021 16:52:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-03-27 06:05:00.419426
- Title: Mind the Gap when Conditioning Amortised Inference in Sequential
Latent-Variable Models
- Title(参考訳): 逐次潜在変数モデルにおける修正推論の条件付け時のギャップの意識
- Authors: Justin Bayer, Maximilian Soelch, Atanas Mirchev, Baris Kayalibay,
Patrick van der Smagt
- Abstract要約: ELBOの目的は, 部分的に固定した後肢を固定し, 平滑な後肢の積を近似することであった。
これらの理論的な結果は,交通流,手書き桁,航空機の動力学の3つのシナリオで実証される。
完全条件付き近似後処理を用いることで、生成モデリングと多段階予測の点で性能が向上する。
- 参考スコア(独自算出の注目度): 9.862634768723131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amortised inference enables scalable learning of sequential latent-variable
models (LVMs) with the evidence lower bound (ELBO). In this setting,
variational posteriors are often only partially conditioned. While the true
posteriors depend, e.g., on the entire sequence of observations, approximate
posteriors are only informed by past observations. This mimics the Bayesian
filter -- a mixture of smoothing posteriors. Yet, we show that the ELBO
objective forces partially-conditioned amortised posteriors to approximate
products of smoothing posteriors instead. Consequently, the learned generative
model is compromised. We demonstrate these theoretical findings in three
scenarios: traffic flow, handwritten digits, and aerial vehicle dynamics. Using
fully-conditioned approximate posteriors, performance improves in terms of
generative modelling and multi-step prediction.
- Abstract(参考訳): amortized inferenceは、エビデンスローバウンド(elbo)を持つ逐次潜在変数モデル(lvms)のスケーラブルな学習を可能にする。
この設定では、変分後部はしばしば部分的にのみ条件付けされる。
真の後部は、例えば、観測の順序全体に依存するが、近似後部は過去の観測によってのみ通知される。
これはベイズフィルター -- 滑らかな後方の混合である。
しかし,エルボの客観的な力は後肢を部分的に条件付けし,後肢の平滑化を近似した。
これにより、学習した生成モデルが損なわれる。
これらの理論的な結果は,交通流,手書き桁,航空機の動力学の3つのシナリオで実証される。
完全条件付き近似後処理を用いることで、生成モデリングと多段階予測の観点から性能が向上する。
関連論文リスト
- Supervised Guidance Training for Infinite-Dimensional Diffusion Models [47.65586147952857]
逆問題では、先行条件付き関数上の後続分布からサンプリングすることを目的とする。
モデルがDoobの$h$-変換の無限次元拡張を用いて条件付けできることを証明する。
シミュレーション不要なスコアマッチング目標(Supervised Guidance Training)を提案する。
論文 参考訳(メタデータ) (2026-01-28T16:39:39Z) - Nearly Optimal Bayesian Inference for Structural Missingness [23.988531482641307]
ベイズ的な見方では、後続の予測分布による予測は、完全なモデル後続の不確実性の上に統合される。
このフレームワークは、(II)ラベル予測からモデル内の欠損値後部を学習し、予測後部分布を最適化する。
43の分類と15の計算ベンチマークでSOTAを達成し、ベイズ最適性保証の近くに有限サンプルを持つ。
論文 参考訳(メタデータ) (2026-01-26T14:03:11Z) - Predictively Oriented Posteriors [4.135680181585462]
我々はパラメータ推定と密度推定の両方の最も望ましい側面を組み合わせた新しい統計原理を提唱する。
PrO後部は予測最適モデル平均に$n-1/2$で収束する。
平均場ランゲヴィン動力学に基づく進化粒子からPrO後部を採取できることが示される。
論文 参考訳(メタデータ) (2025-10-02T11:33:26Z) - On the Shape of Latent Variables in a Denoising VAE-MoG: A Posterior Sampling-Based Study [51.56484100374058]
ガウス前駆体 (VAE-MoG) を用いた変分オートエンコーダの潜時空間を探索する。
モデルが基盤構造をどれだけうまく捉えているかを評価するために、ハミルトンモンテカルロ (HMC) を用いて、クリーンな入力で条件付けられた後続サンプルを描画し、ノイズの多いデータからエンコーダの出力と比較する。
モデルは正確に信号を再構成するが、統計的比較により、潜在空間における明らかなミスマッチが明らかになる。
論文 参考訳(メタデータ) (2025-09-29T18:33:09Z) - Solving Inverse Problems with FLAIR [68.87167940623318]
本稿では,フローベース生成モデルを逆問題に先立って活用する学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-06-03T09:29:47Z) - One-for-More: Continual Diffusion Model for Anomaly Detection [61.12622458367425]
異常検出法は拡散モデルを用いて任意の異常画像が与えられたときの正常サンプルの生成または再構成を行う。
われわれは,拡散モデルが「重度忠実幻覚」と「破滅的な忘れ」に悩まされていることを発見した。
本研究では,安定な連続学習を実現するために勾配予測を用いた連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-27T07:47:27Z) - Generative Modeling with Bayesian Sample Inference [50.07758840675341]
我々はガウス的後代推論の単純な作用から新しい生成モデルを導出する。
生成したサンプルを未知変数として推論することで、ベイズ確率の言語でサンプリングプロセスを定式化する。
我々のモデルは、未知のサンプルを広い初期信念から絞り込むために、一連の予測と後続の更新ステップを使用する。
論文 参考訳(メタデータ) (2025-02-11T14:27:10Z) - Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Post-Hoc Reversal: Are We Selecting Models Prematurely? [13.910702424593797]
ポストホック変換を適用した後に性能傾向が逆転するポストホック逆転現象を示す。
予備的な分析は、これらの変換が、誤ラベルされた例の影響を抑えることによって、逆転を引き起こすことを示唆している。
ポストホック選択(post-hoc selection)は、ポストホックメトリクスがモデル開発決定を通知するシンプルな手法である。
論文 参考訳(メタデータ) (2024-04-11T14:58:19Z) - Towards Model-Agnostic Posterior Approximation for Fast and Accurate Variational Autoencoders [22.77397537980102]
我々は,真のモデルの後部の決定論的,モデルに依存しない後部近似(MAPA)を計算可能であることを示す。
我々は,(1)MAPAが真の後部傾向を捉えた低次元合成データに対する予備的な結果を示し,(2)MAPAに基づく推論は,ベースラインよりも少ない計算でより優れた密度推定を行う。
論文 参考訳(メタデータ) (2024-03-13T20:16:21Z) - Flat Seeking Bayesian Neural Networks [32.61417343756841]
我々は、シャープネスを意識した後部における理論、ベイズ的設定、および変分推論アプローチを開発する。
具体的には、シャープネス認識後部から採取したモデルと、このシャープネス認識後部を推定する最適な近似後部モデルにより、平坦性が向上した。
我々は最先端のベイズニューラルネットワークによるシャープネス認識後部を応用して実験を行う。
論文 参考訳(メタデータ) (2023-02-06T11:40:44Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Loss function based second-order Jensen inequality and its application
to particle variational inference [112.58907653042317]
粒子変分推論(PVI)は、後部分布の実験的近似としてモデルのアンサンブルを用いる。
PVIは、最適化されたモデルの多様性を保証するために、各モデルを反発力で反復的に更新する。
我々は,新たな一般化誤差を導出し,モデルの多様性を高めて低減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T12:13:51Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - A Batch Normalized Inference Network Keeps the KL Vanishing Away [35.40781000297285]
変分オートエンコーダ(VAE)はモデルの後続変数を近似するために広く用いられている。
VAEはしばしば「後崩壊」と呼ばれる退化した局所最適値に収束する
論文 参考訳(メタデータ) (2020-04-27T05:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。