論文の概要: Neighbor Embedding Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2103.11349v1
- Date: Sun, 21 Mar 2021 09:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:53:33.226876
- Title: Neighbor Embedding Variational Autoencoder
- Title(参考訳): 隣接埋め込み変分オートエンコーダ
- Authors: Renfei Tu, Yang Liu, Yongzeng Xue, Cheng Wang and Maozu Guo
- Abstract要約: 本稿では,入力空間に近接する入力を符号化するために,エンコーダを明示的に制約する新しいモデルであるVAE(NE-VAE)を提案する。
我々の実験では、NE-VAEは定性的に異なる潜伏表現を生成できるが、ほとんどの潜伏次元はアクティブのままである。
- 参考スコア(独自算出の注目度): 14.08587678497785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being one of the most popular generative framework, variational
autoencoders(VAE) are known to suffer from a phenomenon termed posterior
collapse, i.e. the latent variational distributions collapse to the prior,
especially when a strong decoder network is used. In this work, we analyze the
latent representation of collapsed VAEs, and proposed a novel model, neighbor
embedding VAE(NE-VAE), which explicitly constraints the encoder to encode
inputs close in the input space to be close in the latent space. We observed
that for VAE variants that report similar ELBO, KL divergence or even mutual
information scores may still behave quite differently in the latent
organization. In our experiments, NE-VAE can produce qualitatively different
latent representations with majority of the latent dimensions remained active,
which may benefit downstream latent space optimization tasks. NE-VAE can
prevent posterior collapse to a much greater extent than it's predecessors, and
can be easily plugged into any autoencoder framework, without introducing
addition model components and complex training routines.
- Abstract(参考訳): 最も一般的な生成枠組みの一つである変分オートエンコーダ(vae)は、後方崩壊と呼ばれる現象に苦しむことが知られている。
潜伏変分分布は、特に強いデコーダネットワークを使用する場合に、先行して崩壊する。
本研究では, 崩壊したVAEの潜時表現を解析し, 潜時空間に近い入力空間に近接する入力をエンコードするエンコーダを明示的に制約する, 近接埋め込みVAE(NE-VAE)という新しいモデルを提案する。
類似したelbo,kl発散,あるいは相互情報スコアを報告したvae変異株については,潜在組織ではなお全く異なる行動をとる可能性がある。
我々の実験では, NE-VAE は定性的に異なる潜在空間表現を生成でき, 潜在次元の大部分が有効であり, 下流潜在空間最適化の恩恵を受ける可能性がある。
ne-vaeは、前機種よりもはるかに後方崩壊を防ぎ、モデルコンポーネントの追加や複雑なトレーニングルーチンを導入することなく、任意のオートエンコーダフレームワークに簡単に接続できる。
関連論文リスト
- Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - Beyond Vanilla Variational Autoencoders: Detecting Posterior Collapse in Conditional and Hierarchical Variational Autoencoders [25.61363481391964]
変分オートエンコーダ(VAE)における後部崩壊現象は、学習された潜伏変数の品質を妨げうる。
本研究では, 後部崩壊の理論的理解を, 条件付きVAEと階層型VAEの2つの重要な, 広く普及しているがあまり研究されていないクラスに進める。
論文 参考訳(メタデータ) (2023-06-08T08:22:27Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - Variational Autoencoders Without the Variation [0.0]
変異自己エンコーダ(VAEs)は、生成モデリングにおける一般的なアプローチである。
正規化およびエントロピックオートエンコーダに関する最近の研究は、生成モデリングにおいて、変分的アプローチを除去し、古典的決定論的オートエンコーダ(DAE)に戻す可能性を探り始めた。
本稿では,新たな手法を使わずに画像生成のためのDAEの能力と,大規模ネットワークの暗黙的な正規化と平滑化の効果を実証的に検討する。
論文 参考訳(メタデータ) (2022-03-01T17:39:02Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - Hierarchical Variational Autoencoder for Visual Counterfactuals [79.86967775454316]
条件変量オート(VAE)は、説明可能な人工知能(XAI)ツールとして注目されている。
本稿では, 後部の効果がいかに緩和され, 対物的効果が成功するかを示す。
本稿では,アプリケーション内の分類器を視覚的に監査できる階層型VAEについて紹介する。
論文 参考訳(メタデータ) (2021-02-01T14:07:11Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - A Batch Normalized Inference Network Keeps the KL Vanishing Away [35.40781000297285]
変分オートエンコーダ(VAE)はモデルの後続変数を近似するために広く用いられている。
VAEはしばしば「後崩壊」と呼ばれる退化した局所最適値に収束する
論文 参考訳(メタデータ) (2020-04-27T05:20:01Z) - On the Encoder-Decoder Incompatibility in Variational Text Modeling and
Beyond [82.18770740564642]
変分オートエンコーダ(VAE)は、潜時変数と償却変分推論を結合する。
我々は,データ多様体のパラメータ化が不十分なエンコーダ・デコーダの不整合性を観察する。
同一構造を持つ決定論的オートエンコーダとVAEモデルを結合した結合型VAEを提案する。
論文 参考訳(メタデータ) (2020-04-20T10:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。