論文の概要: Variational Autoencoders Without the Variation
- arxiv url: http://arxiv.org/abs/2203.00645v1
- Date: Tue, 1 Mar 2022 17:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 12:59:06.905982
- Title: Variational Autoencoders Without the Variation
- Title(参考訳): 変動のない変分オートエンコーダ
- Authors: Gregory A. Daly, Jonathan E. Fieldsend and Gavin Tabor
- Abstract要約: 変異自己エンコーダ(VAEs)は、生成モデリングにおける一般的なアプローチである。
正規化およびエントロピックオートエンコーダに関する最近の研究は、生成モデリングにおいて、変分的アプローチを除去し、古典的決定論的オートエンコーダ(DAE)に戻す可能性を探り始めた。
本稿では,新たな手法を使わずに画像生成のためのDAEの能力と,大規模ネットワークの暗黙的な正規化と平滑化の効果を実証的に検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencdoers (VAE) are a popular approach to generative
modelling. However, exploiting the capabilities of VAEs in practice can be
difficult. Recent work on regularised and entropic autoencoders have begun to
explore the potential, for generative modelling, of removing the variational
approach and returning to the classic deterministic autoencoder (DAE) with
additional novel regularisation methods. In this paper we empirically explore
the capability of DAEs for image generation without additional novel methods
and the effect of the implicit regularisation and smoothness of large networks.
We find that DAEs can be used successfully for image generation without
additional loss terms, and that many of the useful properties of VAEs can arise
implicitly from sufficiently large convolutional encoders and decoders when
trained on CIFAR-10 and CelebA.
- Abstract(参考訳): 変分オートエンシング(英語版)(vae)は生成モデリングに対する一般的なアプローチである。
しかし、vaesの能力を実際に活用することは困難である。
正規化およびエントロピー的オートエンコーダに関する最近の研究は、生成モデリングにおいて、変分的アプローチを取り除き、新たな正規化手法で古典的決定論的オートエンコーダ(DAE)に戻す可能性を探り始めた。
本稿では,新たな手法を使わずに画像生成のためのDAEの能力と,大規模ネットワークの暗黙的な正規化と平滑化の効果を実証的に検討する。
CIFAR-10 や CelebA でトレーニングした場合,DAE は画像生成に有効であり,VAE の有用性の多くは十分に大きな畳み込みエンコーダやデコーダから暗黙的に生じる可能性がある。
関連論文リスト
- A Bayesian Non-parametric Approach to Generative Models: Integrating
Variational Autoencoder and Generative Adversarial Networks using Wasserstein
and Maximum Mean Discrepancy [2.966338139852619]
GAN(Generative Adversarial Network)とVAE(VAE)は、最も顕著で広く研究されている生成モデルである。
ベイズ的非パラメトリック(BNP)アプローチを用いて、GANとVAEを融合する。
本稿では,GANの識別能力とVAEの再構成能力とを融合させることにより,多種多様な生成タスクにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-27T08:58:31Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - Neighbor Embedding Variational Autoencoder [14.08587678497785]
本稿では,入力空間に近接する入力を符号化するために,エンコーダを明示的に制約する新しいモデルであるVAE(NE-VAE)を提案する。
我々の実験では、NE-VAEは定性的に異なる潜伏表現を生成できるが、ほとんどの潜伏次元はアクティブのままである。
論文 参考訳(メタデータ) (2021-03-21T09:49:12Z) - Adversarial and Contrastive Variational Autoencoder for Sequential
Recommendation [25.37244686572865]
本稿では、逐次レコメンデーションのためのAdversarial and Contrastive Variational Autoencoder (ACVAE) と呼ばれる新しい手法を提案する。
まず,本モデルが高品質な潜在変数を生成することを可能にするadversarial variational bayesフレームワークの下で,シーケンス生成のためのadversarial trainingを導入する。
さらに、シーケンスをエンコードする場合、シーケンス内のグローバルおよびローカルの関係をキャプチャするために、繰り返しおよび畳み込み構造を適用します。
論文 参考訳(メタデータ) (2021-03-19T09:01:14Z) - Hierarchical Variational Autoencoder for Visual Counterfactuals [79.86967775454316]
条件変量オート(VAE)は、説明可能な人工知能(XAI)ツールとして注目されている。
本稿では, 後部の効果がいかに緩和され, 対物的効果が成功するかを示す。
本稿では,アプリケーション内の分類器を視覚的に監査できる階層型VAEについて紹介する。
論文 参考訳(メタデータ) (2021-02-01T14:07:11Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - NVAE: A Deep Hierarchical Variational Autoencoder [102.29977384039805]
本稿では,深度ワイド分離可能な畳み込みとバッチ正規化を用いた画像生成のための階層型VAEを提案する。
NVAEは非自己回帰的確率ベースモデルにおいて最先端の結果が得られることを示す。
我々の知る限りでは、NVAEは256$times $256ピクセルの自然画像に適用された最初のVAEである。
論文 参考訳(メタデータ) (2020-07-08T04:56:56Z) - Robust Training of Vector Quantized Bottleneck Models [21.540133031071438]
ベクトル量子変分自動エンコーダモデル(VQ-VAEs)を用いた離散表現の信頼性と効率的な訓練法を示す。
教師なし表現学習では、変分オートエンコーダ(VAE)のような連続潜伏変数モデルの代替となる。
論文 参考訳(メタデータ) (2020-05-18T08:23:41Z) - Regularized Autoencoders via Relaxed Injective Probability Flow [35.39933775720789]
非可逆フローベース生成モデルは、抽出可能な確率計算と推論を可能にしながら、サンプルを生成するための効果的な方法である。
本稿では, モデル上の単射性要件を回避し, 単射性のみを仮定する確率フローに基づく生成モデルを提案する。
論文 参考訳(メタデータ) (2020-02-20T18:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。