論文の概要: Analyzing the Posterior Collapse in Hierarchical Variational
Autoencoders
- arxiv url: http://arxiv.org/abs/2302.09976v1
- Date: Mon, 20 Feb 2023 13:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 15:13:37.574701
- Title: Analyzing the Posterior Collapse in Hierarchical Variational
Autoencoders
- Title(参考訳): 階層型変分オートエンコーダの後方崩壊解析
- Authors: Anna Kuzina and Jakub M. Tomczak
- Abstract要約: 本稿では,部分的に固定されたエンコーダを備えた新しい階層型VAEを提案する。
一連の実験において、提案した修正により、潜伏空間のより良い利用が可能になることが観察された。
- 参考スコア(独自算出の注目度): 10.482805367361818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hierarchical Variational Autoencoders (VAEs) are among the most popular
likelihood-based generative models. There is rather a consensus that the
top-down hierarchical VAEs allow to effectively learn deep latent structures
and avoid problems like the posterior collapse. Here, we show that it is not
necessarily the case and the problem of collapsing posteriors remains. To
discourage the posterior collapse, we propose a new deep hierarchical VAE with
a partly fixed encoder, specifically, we use Discrete Cosine Transform to
obtain top latent variables. In a series of experiments, we observe that the
proposed modification allows us to achieve better utilization of the latent
space. Further, we demonstrate that the proposed approach can be useful for
compression and robustness to adversarial attacks.
- Abstract(参考訳): 階層的変分オートエンコーダ(vaes)は最も一般的な確率に基づく生成モデルである。
トップダウンの階層型VAEは、深い潜伏構造を効果的に学習し、後部崩壊のような問題を回避できるというコンセンサスがある。
ここでは,必ずしもそうではないことを示すとともに,後方崩壊の問題も残る。
後方崩壊を回避するために,部分的に固定されたエンコーダを備えた新しい階層型VAEを提案する。
一連の実験で,提案する修正により潜在空間の利用性が向上することを確認した。
さらに,提案手法は敵攻撃に対する圧縮と堅牢性に有用であることを示す。
関連論文リスト
- Beyond Vanilla Variational Autoencoders: Detecting Posterior Collapse in Conditional and Hierarchical Variational Autoencoders [25.61363481391964]
変分オートエンコーダ(VAE)における後部崩壊現象は、学習された潜伏変数の品質を妨げうる。
本研究では, 後部崩壊の理論的理解を, 条件付きVAEと階層型VAEの2つの重要な, 広く普及しているがあまり研究されていないクラスに進める。
論文 参考訳(メタデータ) (2023-06-08T08:22:27Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Deep Hierarchy in Bandits [51.22833900944146]
行動の報酬は、しばしば相関する。
統計的効率を最大化するためには,これらの相関を学習に活用することが重要である。
平均作用報酬の相関が階層的ベイズモデルで表されるこの問題のバンディット変法を定式化する。
論文 参考訳(メタデータ) (2022-02-03T08:15:53Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - A Contrastive Learning Approach for Training Variational Autoencoder
Priors [137.62674958536712]
変分オートエンコーダ(VAE)は、多くの領域で応用される強力な可能性に基づく生成モデルの一つである。
VAEsが生成性に乏しいことの1つの説明は、事前の分布が集合の近似的な後部と一致しないという、事前の穴の問題である。
本研究では, 基底分布の積と再重み付け係数によって定義されるエネルギーベースの事前定義を行い, 基底を集合体後部へ近づけるようにした。
論文 参考訳(メタデータ) (2020-10-06T17:59:02Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。