論文の概要: Discouraging posterior collapse in hierarchical Variational Autoencoders
using context
- arxiv url: http://arxiv.org/abs/2302.09976v2
- Date: Thu, 28 Sep 2023 12:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 22:58:16.719453
- Title: Discouraging posterior collapse in hierarchical Variational Autoencoders
using context
- Title(参考訳): コンテキストを用いた階層型変分オートエンコーダの後方崩壊
- Authors: Anna Kuzina and Jakub M. Tomczak
- Abstract要約: トップダウン階層のVAEは、深い潜伏構造を効果的に学習し、後部崩壊のような問題を回避できるという意見が一致している。
ここでは,必ずしもそうではないことを示すとともに,後方崩壊の問題も残る。
具体的には、離散コサイン変換を用いて最後の潜伏変数を得る。
- 参考スコア(独自算出の注目度): 19.47169312443202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hierarchical Variational Autoencoders (VAEs) are among the most popular
likelihood-based generative models. There is a consensus that the top-down
hierarchical VAEs allow effective learning of deep latent structures and avoid
problems like posterior collapse. Here, we show that this is not necessarily
the case, and the problem of collapsing posteriors remains. To discourage this
issue, we propose a deep hierarchical VAE with a context on top. Specifically,
we use a Discrete Cosine Transform to obtain the last latent variable. In a
series of experiments, we observe that the proposed modification allows us to
achieve better utilization of the latent space and does not harm the model's
generative abilities.
- Abstract(参考訳): 階層的変分オートエンコーダ(vaes)は最も一般的な確率に基づく生成モデルである。
トップダウン階層のVAEは、深い潜伏構造を効果的に学習し、後部崩壊のような問題を回避できるという合意がある。
ここでは,必ずしもそうではないことを示すとともに,後方崩壊の問題も残る。
この問題を回避するため、我々は、その上にコンテキストを持つ深い階層型VAEを提案する。
具体的には、離散コサイン変換を用いて最後の潜伏変数を得る。
一連の実験において,提案する修正により潜在空間の利用性が向上し,モデルの生成能力を損なうことはないことを検証した。
関連論文リスト
- Beyond Vanilla Variational Autoencoders: Detecting Posterior Collapse in Conditional and Hierarchical Variational Autoencoders [25.61363481391964]
変分オートエンコーダ(VAE)における後部崩壊現象は、学習された潜伏変数の品質を妨げうる。
本研究では, 後部崩壊の理論的理解を, 条件付きVAEと階層型VAEの2つの重要な, 広く普及しているがあまり研究されていないクラスに進める。
論文 参考訳(メタデータ) (2023-06-08T08:22:27Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Deep Hierarchy in Bandits [51.22833900944146]
行動の報酬は、しばしば相関する。
統計的効率を最大化するためには,これらの相関を学習に活用することが重要である。
平均作用報酬の相関が階層的ベイズモデルで表されるこの問題のバンディット変法を定式化する。
論文 参考訳(メタデータ) (2022-02-03T08:15:53Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - A Contrastive Learning Approach for Training Variational Autoencoder
Priors [137.62674958536712]
変分オートエンコーダ(VAE)は、多くの領域で応用される強力な可能性に基づく生成モデルの一つである。
VAEsが生成性に乏しいことの1つの説明は、事前の分布が集合の近似的な後部と一致しないという、事前の穴の問題である。
本研究では, 基底分布の積と再重み付け係数によって定義されるエネルギーベースの事前定義を行い, 基底を集合体後部へ近づけるようにした。
論文 参考訳(メタデータ) (2020-10-06T17:59:02Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。