論文の概要: AAVAE: Augmentation-Augmented Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2107.12329v1
- Date: Mon, 26 Jul 2021 17:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 15:56:29.532021
- Title: AAVAE: Augmentation-Augmented Variational Autoencoders
- Title(参考訳): AAVAE:Augmentation-Augmented Variational Autoencoders
- Authors: William Falcon, Ananya Harsh Jha, Teddy Koker and Kyunghyun Cho
- Abstract要約: 本稿では,自動符号化に基づく自己教師型学習における第3のアプローチであるAugmentation-augmented variational autoencoders (AAVAE)を紹介する。
画像分類において提案したAAVAEを,最近のコントラスト学習アルゴリズムや非コントラスト学習アルゴリズムと同様に実証的に評価した。
- 参考スコア(独自算出の注目度): 43.73699420145321
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent methods for self-supervised learning can be grouped into two
paradigms: contrastive and non-contrastive approaches. Their success can
largely be attributed to data augmentation pipelines which generate multiple
views of a single input that preserve the underlying semantics. In this work,
we introduce augmentation-augmented variational autoencoders (AAVAE), a third
approach to self-supervised learning based on autoencoding. We derive AAVAE
starting from the conventional variational autoencoder (VAE), by replacing the
KL divergence regularization, which is agnostic to the input domain, with data
augmentations that explicitly encourage the internal representations to encode
domain-specific invariances and equivariances. We empirically evaluate the
proposed AAVAE on image classification, similar to how recent contrastive and
non-contrastive learning algorithms have been evaluated. Our experiments
confirm the effectiveness of data augmentation as a replacement for KL
divergence regularization. The AAVAE outperforms the VAE by 30% on CIFAR-10 and
40% on STL-10. The results for AAVAE are largely comparable to the
state-of-the-art for self-supervised learning.
- Abstract(参考訳): 近年の自己教師型学習法は, コントラスト的アプローチと非コントラスト的アプローチの2つのパラダイムに分類できる。
彼らの成功は主に、基礎となるセマンティクスを保存する単一の入力の複数のビューを生成するデータ拡張パイプラインによるものである。
本稿では,自己教師付き学習に対する第3のアプローチである拡張型変分オートエンコーダ(aavae)について述べる。
我々は、従来の変分オートエンコーダ(vae)から始まったaavaeを、入力領域に依存しないkl分岐正規化と、ドメイン固有の不変性と等分散を明示的にエンコードするように内部表現を奨励するデータ拡張に置き換えることで導出する。
画像分類におけるaavaeの評価は,近年のコントラスト型および非コントラスト型学習アルゴリズムの評価と類似している。
KL分散正規化の代替としてデータ拡張の有効性を確認した。
AAVAEは、CIFAR-10でVAEを30%、STL-10で40%上回っている。
AAVAEの結果は、主に自己教師型学習の最先端技術に匹敵する。
関連論文リスト
- Denoising Diffusion Autoencoders are Unified Self-supervised Learners [58.194184241363175]
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層内で線形分離可能な表現を強く学習している。
CIFAR-10 と Tiny-ImageNet の線形評価精度は95.9% と 50.0% である。
論文 参考訳(メタデータ) (2023-03-17T04:20:47Z) - Covariate-informed Representation Learning with Samplewise Optimal
Identifiable Variational Autoencoders [15.254297587065595]
最近提案された変分オートエンコーダ (iVAE) は、データの潜在独立成分を学習するための有望なアプローチを提供する。
我々は新しいアプローチ、CI-iVAE(co-informed identible VAE)を開発した。
目的関数は逆関係を強制し、学習された表現はより多くの観測情報を含む。
論文 参考訳(メタデータ) (2022-02-09T00:18:33Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder [23.860842627883187]
我々は、新しいノイズ強調型教師付きオートエンコーダ(NSAE)を用いて、特徴分布のより広範なバリエーションを捉えるようモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
また、NSAE構造を利用して、より適応性を高め、対象領域の分類性能を向上させる2段階の微調整手順を提案する。
論文 参考訳(メタデータ) (2021-08-11T04:45:56Z) - Consistency Regularization for Variational Auto-Encoders [14.423556966548544]
変分自動エンコーダ(VAE)は教師なし学習の強力なアプローチである。
本稿では,VAEの整合性を強制する正規化手法を提案する。
論文 参考訳(メタデータ) (2021-05-31T10:26:32Z) - Hierarchical Variational Autoencoder for Visual Counterfactuals [79.86967775454316]
条件変量オート(VAE)は、説明可能な人工知能(XAI)ツールとして注目されている。
本稿では, 後部の効果がいかに緩和され, 対物的効果が成功するかを示す。
本稿では,アプリケーション内の分類器を視覚的に監査できる階層型VAEについて紹介する。
論文 参考訳(メタデータ) (2021-02-01T14:07:11Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Dual Adversarial Auto-Encoders for Clustering [152.84443014554745]
教師なしクラスタリングのためのDual-AAE(Dual-AAE)を提案する。
Dual-AAEの目的関数に対する変分推論を行うことで,一対のオートエンコーダをトレーニングすることで最適化可能な新たな再構成損失を導出する。
4つのベンチマーク実験により、Dual-AAEは最先端のクラスタリング手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-23T13:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。