論文の概要: Mind the Gap when Conditioning Amortised Inference in Sequential
Latent-Variable Models
- arxiv url: http://arxiv.org/abs/2101.07046v2
- Date: Wed, 17 Mar 2021 16:52:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 06:05:00.419426
- Title: Mind the Gap when Conditioning Amortised Inference in Sequential
Latent-Variable Models
- Title(参考訳): 逐次潜在変数モデルにおける修正推論の条件付け時のギャップの意識
- Authors: Justin Bayer, Maximilian Soelch, Atanas Mirchev, Baris Kayalibay,
Patrick van der Smagt
- Abstract要約: ELBOの目的は, 部分的に固定した後肢を固定し, 平滑な後肢の積を近似することであった。
これらの理論的な結果は,交通流,手書き桁,航空機の動力学の3つのシナリオで実証される。
完全条件付き近似後処理を用いることで、生成モデリングと多段階予測の点で性能が向上する。
- 参考スコア(独自算出の注目度): 9.862634768723131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amortised inference enables scalable learning of sequential latent-variable
models (LVMs) with the evidence lower bound (ELBO). In this setting,
variational posteriors are often only partially conditioned. While the true
posteriors depend, e.g., on the entire sequence of observations, approximate
posteriors are only informed by past observations. This mimics the Bayesian
filter -- a mixture of smoothing posteriors. Yet, we show that the ELBO
objective forces partially-conditioned amortised posteriors to approximate
products of smoothing posteriors instead. Consequently, the learned generative
model is compromised. We demonstrate these theoretical findings in three
scenarios: traffic flow, handwritten digits, and aerial vehicle dynamics. Using
fully-conditioned approximate posteriors, performance improves in terms of
generative modelling and multi-step prediction.
- Abstract(参考訳): amortized inferenceは、エビデンスローバウンド(elbo)を持つ逐次潜在変数モデル(lvms)のスケーラブルな学習を可能にする。
この設定では、変分後部はしばしば部分的にのみ条件付けされる。
真の後部は、例えば、観測の順序全体に依存するが、近似後部は過去の観測によってのみ通知される。
これはベイズフィルター -- 滑らかな後方の混合である。
しかし,エルボの客観的な力は後肢を部分的に条件付けし,後肢の平滑化を近似した。
これにより、学習した生成モデルが損なわれる。
これらの理論的な結果は,交通流,手書き桁,航空機の動力学の3つのシナリオで実証される。
完全条件付き近似後処理を用いることで、生成モデリングと多段階予測の観点から性能が向上する。
関連論文リスト
- Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Post-Hoc Reversal: Are We Selecting Models Prematurely? [13.910702424593797]
ポストホック変換を適用した後に性能傾向が逆転するポストホック逆転現象を示す。
予備的な分析は、これらの変換が、誤ラベルされた例の影響を抑えることによって、逆転を引き起こすことを示唆している。
ポストホック選択(post-hoc selection)は、ポストホックメトリクスがモデル開発決定を通知するシンプルな手法である。
論文 参考訳(メタデータ) (2024-04-11T14:58:19Z) - Towards Model-Agnostic Posterior Approximation for Fast and Accurate Variational Autoencoders [22.77397537980102]
我々は,真のモデルの後部の決定論的,モデルに依存しない後部近似(MAPA)を計算可能であることを示す。
我々は,(1)MAPAが真の後部傾向を捉えた低次元合成データに対する予備的な結果を示し,(2)MAPAに基づく推論は,ベースラインよりも少ない計算でより優れた密度推定を行う。
論文 参考訳(メタデータ) (2024-03-13T20:16:21Z) - Flat Seeking Bayesian Neural Networks [32.61417343756841]
我々は、シャープネスを意識した後部における理論、ベイズ的設定、および変分推論アプローチを開発する。
具体的には、シャープネス認識後部から採取したモデルと、このシャープネス認識後部を推定する最適な近似後部モデルにより、平坦性が向上した。
我々は最先端のベイズニューラルネットワークによるシャープネス認識後部を応用して実験を行う。
論文 参考訳(メタデータ) (2023-02-06T11:40:44Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Loss function based second-order Jensen inequality and its application
to particle variational inference [112.58907653042317]
粒子変分推論(PVI)は、後部分布の実験的近似としてモデルのアンサンブルを用いる。
PVIは、最適化されたモデルの多様性を保証するために、各モデルを反発力で反復的に更新する。
我々は,新たな一般化誤差を導出し,モデルの多様性を高めて低減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T12:13:51Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - A Batch Normalized Inference Network Keeps the KL Vanishing Away [35.40781000297285]
変分オートエンコーダ(VAE)はモデルの後続変数を近似するために広く用いられている。
VAEはしばしば「後崩壊」と呼ばれる退化した局所最適値に収束する
論文 参考訳(メタデータ) (2020-04-27T05:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。