論文の概要: Autoencoding Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2012.03715v1
- Date: Mon, 7 Dec 2020 14:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:46:50.981896
- Title: Autoencoding Variational Autoencoder
- Title(参考訳): 変分オートエンコーダの自動エンコード
- Authors: A. Taylan Cemgil, Sumedh Ghaisas, Krishnamurthy Dvijotham, Sven Gowal,
Pushmeet Kohli
- Abstract要約: 我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
- 参考スコア(独自算出の注目度): 56.05008520271406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Does a Variational AutoEncoder (VAE) consistently encode typical samples
generated from its decoder? This paper shows that the perhaps surprising answer
to this question is `No'; a (nominally trained) VAE does not necessarily
amortize inference for typical samples that it is capable of generating. We
study the implications of this behaviour on the learned representations and
also the consequences of fixing it by introducing a notion of self consistency.
Our approach hinges on an alternative construction of the variational
approximation distribution to the true posterior of an extended VAE model with
a Markov chain alternating between the encoder and the decoder. The method can
be used to train a VAE model from scratch or given an already trained VAE, it
can be run as a post processing step in an entirely self supervised way without
access to the original training data. Our experimental analysis reveals that
encoders trained with our self-consistency approach lead to representations
that are robust (insensitive) to perturbations in the input introduced by
adversarial attacks. We provide experimental results on the ColorMnist and
CelebA benchmark datasets that quantify the properties of the learned
representations and compare the approach with a baseline that is specifically
trained for the desired property.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、デコーダから生成された典型的なサンプルを一貫してエンコードするのか?
本稿では、この疑問に対するおそらく意外な答えが「No」であることを示し、VAEが生成可能な典型的なサンプルに対する推論を必ずしも記憶しないことを示す。
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
このアプローチは、エンコーダとデコーダの間で交互にマルコフ連鎖を持つ拡張vaeモデルの真の後方への変分近似分布の代替構成にかかっている。
この方法は、VAEモデルをスクラッチからトレーニングしたり、すでに訓練済みのVAEを与えられたら、オリジナルのトレーニングデータにアクセスすることなく、完全に自己管理された方法でポスト処理ステップとして実行することができる。
実験により, 自己整合性アプローチで訓練したエンコーダは, 敵攻撃による入力の摂動に対して頑健な(無感な)表現につながることが明らかとなった。
学習した表現の特性を定量化し,所望のプロパティに対して特別に訓練されたベースラインと比較する,ColorMnist と CelebA ベンチマークデータセットの実験結果を提供する。
関連論文リスト
- Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Fully Bayesian Autoencoders with Latent Sparse Gaussian Processes [23.682509357305406]
オートエンコーダとその変種は表現学習と生成モデリングにおいて最も広く使われているモデルの一つである。
ベイジアンオートエンコーダの潜在空間に完全スパースガウスプロセス先行を課す新しいスパースガウスプロセスベイジアンオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-02-09T09:57:51Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - Laplacian Autoencoders for Learning Stochastic Representations [0.6999740786886537]
本稿では,非教師付き表現学習のためのベイズオートエンコーダを提案する。
我々のラプラシアオートエンコーダは、潜在空間と出力空間の両方において、よく校正された不確かさを推定する。
論文 参考訳(メタデータ) (2022-06-30T07:23:16Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - Consistency Regularization for Variational Auto-Encoders [14.423556966548544]
変分自動エンコーダ(VAE)は教師なし学習の強力なアプローチである。
本稿では,VAEの整合性を強制する正規化手法を提案する。
論文 参考訳(メタデータ) (2021-05-31T10:26:32Z) - Variational Autoencoder-Based Vehicle Trajectory Prediction with an
Interpretable Latent Space [0.0]
本稿では,車両軌道予測のための教師なし・エンドツーエンドの学習可能なニューラルネットワークであるdescriptive variational autoencoder (dvae)について述べる。
提案モデルは同様の予測精度を提供するが、解釈可能な潜在空間を持つことの利点がある。
論文 参考訳(メタデータ) (2021-03-25T10:15:53Z) - Automatic Feature Extraction for Heartbeat Anomaly Detection [7.054093620465401]
医療における異常検出の応用を目的とした、生音声の心拍音の自動抽出に着目する。
1次元非コーダ畳み込みエンコーダとウェーブネットデコーダで構成したオートエンコーダの助けを借りて,特徴を学習する。
論文 参考訳(メタデータ) (2021-02-24T13:55:24Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Simple and Effective VAE Training with Calibrated Decoders [123.08908889310258]
変分オートエンコーダ(VAE)は、複雑な分布をモデル化するための効果的で簡単な方法である。
復号分布の不確かさを学習する校正復号器の影響について検討する。
本稿では,一般的なガウス復号器の簡易かつ斬新な修正を提案し,その予測分散を解析的に計算する。
論文 参考訳(メタデータ) (2020-06-23T17:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。