論文の概要: A Batch Normalized Inference Network Keeps the KL Vanishing Away
- arxiv url: http://arxiv.org/abs/2004.12585v2
- Date: Mon, 1 Jun 2020 01:17:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:28:55.467244
- Title: A Batch Normalized Inference Network Keeps the KL Vanishing Away
- Title(参考訳): バッチ正規化推論ネットワークがKLを消滅させる
- Authors: Qile Zhu, Jianlin Su, Wei Bi, Xiaojiang Liu, Xiyao Ma, Xiaolin Li and
Dapeng Wu
- Abstract要約: 変分オートエンコーダ(VAE)はモデルの後続変数を近似するために広く用いられている。
VAEはしばしば「後崩壊」と呼ばれる退化した局所最適値に収束する
- 参考スコア(独自算出の注目度): 35.40781000297285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational Autoencoder (VAE) is widely used as a generative model to
approximate a model's posterior on latent variables by combining the amortized
variational inference and deep neural networks. However, when paired with
strong autoregressive decoders, VAE often converges to a degenerated local
optimum known as "posterior collapse". Previous approaches consider the
Kullback Leibler divergence (KL) individual for each datapoint. We propose to
let the KL follow a distribution across the whole dataset, and analyze that it
is sufficient to prevent posterior collapse by keeping the expectation of the
KL's distribution positive. Then we propose Batch Normalized-VAE (BN-VAE), a
simple but effective approach to set a lower bound of the expectation by
regularizing the distribution of the approximate posterior's parameters.
Without introducing any new model component or modifying the objective, our
approach can avoid the posterior collapse effectively and efficiently. We
further show that the proposed BN-VAE can be extended to conditional VAE
(CVAE). Empirically, our approach surpasses strong autoregressive baselines on
language modeling, text classification and dialogue generation, and rivals more
complex approaches while keeping almost the same training time as VAE.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、補正された変分推論とディープニューラルネットワークを組み合わせたモデルの後部潜伏変数を近似する生成モデルとして広く用いられている。
しかし、強い自己回帰デコーダと組み合わせると、VAEはしばしば「後崩壊」と呼ばれる局所的な最適値に収束する。
以前のアプローチでは、各データポイントに対してkullback leibler divergence (kl) 個人を考慮する。
我々は,データセット全体にわたる分布をklに追従させ,kl分布の期待を正に保ちながら後方崩壊を防止するのに十分であることを解析する。
次に,近似後続パラメータの分布を定式化することにより期待値の下限を設定するための単純かつ効果的な手法であるバッチ正規化vae(bn-vae)を提案する。
新しいモデルコンポーネントを導入したり、目的を変更することなく、我々のアプローチは、後方崩壊を効果的かつ効率的に回避することができる。
さらに,提案したBN-VAEを条件付きVAE(CVAE)に拡張可能であることを示す。
経験的に、我々のアプローチは言語モデリング、テキスト分類、対話生成における強い自己回帰ベースラインを超え、より複雑なアプローチと競合し、VAEとほぼ同じトレーニング時間を維持する。
関連論文リスト
- Matching aggregate posteriors in the variational autoencoder [0.5759862457142761]
変分オートエンコーダ(VAE)は、よく研究され、深い、潜伏変数モデル(DLVM)である。
本稿では,VAE に付随する目的関数を改良することにより,VAE の欠点を克服する。
提案手法はEmphaggregate variational autoencoder (AVAE) と命名され,VAEの理論的枠組みに基づいて構築されている。
論文 参考訳(メタデータ) (2023-11-13T19:22:37Z) - How to train your VAE [0.0]
変分オートエンコーダ(VAE)は、機械学習における生成モデリングと表現学習の基盤となっている。
本稿では,ELBO(エビデンス・ロウアー・バウンド)における重要な構成要素であるKLディバージェンス(Kulback-Leibler)の解釈について検討する。
提案手法は, ELBOを後続確率のガウス混合体で再定義し, 正規化項を導入し, テクスチャリアリズムを高めるためにPatchGAN識別器を用いる。
論文 参考訳(メタデータ) (2023-09-22T19:52:28Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Improving Variational Autoencoders with Density Gap-based Regularization [16.770753948524167]
変分オートエンコーダ(VAE)は、潜時表現学習と潜時指向生成のためのNLPにおける強力な非教師なし学習フレームワークの1つである。
実際には、ELBoの最適化は、全ての試料の後方分布を同じ分解された局所最適値、すなわち後崩壊またはKL消滅に収束させる。
本稿では, 階層化後分布と先行分布との確率的密度ギャップに基づく新しい正規化により, 両問題に対処する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2022-11-01T08:17:10Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。