論文の概要: Improving Variational Autoencoders with Density Gap-based Regularization
- arxiv url: http://arxiv.org/abs/2211.00321v1
- Date: Tue, 1 Nov 2022 08:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 13:17:17.989330
- Title: Improving Variational Autoencoders with Density Gap-based Regularization
- Title(参考訳): 密度ギャップに基づく正規化による変分オートエンコーダの改善
- Authors: Jianfei Zhang, Jun Bai, Chenghua Lin, Yanmeng Wang, Wenge Rong
- Abstract要約: 変分オートエンコーダ(VAE)は、潜時表現学習と潜時指向生成のためのNLPにおける強力な非教師なし学習フレームワークの1つである。
実際には、ELBoの最適化は、全ての試料の後方分布を同じ分解された局所最適値、すなわち後崩壊またはKL消滅に収束させる。
本稿では, 階層化後分布と先行分布との確率的密度ギャップに基づく新しい正規化により, 両問題に対処する新たな学習目標を提案する。
- 参考スコア(独自算出の注目度): 16.770753948524167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencoders (VAEs) are one of the powerful unsupervised learning
frameworks in NLP for latent representation learning and latent-directed
generation. The classic optimization goal of VAEs is to maximize the Evidence
Lower Bound (ELBo), which consists of a conditional likelihood for generation
and a negative Kullback-Leibler (KL) divergence for regularization. In
practice, optimizing ELBo often leads the posterior distribution of all samples
converge to the same degenerated local optimum, namely posterior collapse or KL
vanishing. There are effective ways proposed to prevent posterior collapse in
VAEs, but we observe that they in essence make trade-offs between posterior
collapse and hole problem, i.e., mismatch between the aggregated posterior
distribution and the prior distribution. To this end, we introduce new training
objectives to tackle both two problems through a novel regularization based on
the probabilistic density gap between the aggregated posterior distribution and
the prior distribution. Through experiments on language modeling, latent space
visualization and interpolation, we show that our proposed method can solve
both problems effectively and thus outperforms the existing methods in
latent-directed generation. To the best of our knowledge, we are the first to
jointly solve the hole problem and the posterior collapse.
- Abstract(参考訳): variational autoencoder(vaes)は、潜在表現学習と潜在指向生成のためのnlpの強力な教師なし学習フレームワークの1つである。
VAEの古典的な最適化目標は、生成の条件付き可能性と正規化のための負のクルバック・リーブラー(KL)分岐からなるエビデンス下界(ELBo)を最大化することである。
実際には、ELBoの最適化は、全ての試料の後方分布を同じ分解された局所最適値、すなわち後崩壊またはKL消滅に収束させる。
VAEにおける後部崩壊を防止する効果的な方法が提案されているが、本質的には後部崩壊と穴問題のトレードオフ、すなわち集合後部分布と先行分布とのミスマッチを生じる。
そこで本研究では, 集約後分布と先行分布との確率的密度ギャップに基づく新たな正規化により, 両問題に対処する新たな学習目標を提案する。
言語モデリング,潜時空間可視化,補間実験を通じて,提案手法は両問題を効果的に解き,既存の手法よりも遅延方向生成の方が優れていることを示す。
我々の知る限りでは、私たちは初めて穴の問題と後方崩壊を共同で解決した。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - How to train your VAE [0.0]
変分オートエンコーダ(VAE)は、機械学習における生成モデリングと表現学習の基盤となっている。
本稿では,ELBO(エビデンス・ロウアー・バウンド)における重要な構成要素であるKLディバージェンス(Kulback-Leibler)の解釈について検討する。
提案手法は, ELBOを後続確率のガウス混合体で再定義し, 正規化項を導入し, テクスチャリアリズムを高めるためにPatchGAN識別器を用いる。
論文 参考訳(メタデータ) (2023-09-22T19:52:28Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z) - A Batch Normalized Inference Network Keeps the KL Vanishing Away [35.40781000297285]
変分オートエンコーダ(VAE)はモデルの後続変数を近似するために広く用いられている。
VAEはしばしば「後崩壊」と呼ばれる退化した局所最適値に収束する
論文 参考訳(メタデータ) (2020-04-27T05:20:01Z) - Discrete Variational Attention Models for Language Generation [51.88612022940496]
本稿では,言語における離散性に起因する注意機構のカテゴリー分布を考慮した離散的変動注意モデルを提案する。
離散性の特質により,提案手法の訓練は後部崩壊に支障を来さない。
論文 参考訳(メタデータ) (2020-04-21T05:49:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。