論文の概要: Towards Better Data Augmentation using Wasserstein Distance in
Variational Auto-encoder
- arxiv url: http://arxiv.org/abs/2109.14795v1
- Date: Thu, 30 Sep 2021 01:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 05:18:39.081481
- Title: Towards Better Data Augmentation using Wasserstein Distance in
Variational Auto-encoder
- Title(参考訳): 変分オートエンコーダにおけるwasserstein距離を用いたデータ拡張
- Authors: Zichuan Chen, Peng Liu
- Abstract要約: VAEまたは変分自動エンコーダは、データを潜在属性に圧縮し、異なる種類の新しいデータを生成する。
本稿では, 潜在属性の分布類似性の尺度としてワッサースタイン距離を用い, 軽度条件下でのKLの発散と比べ, 理論的下界(ELBO)が優れていることを示す。
- 参考スコア(独自算出の注目度): 3.4793807018498555
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: VAE, or variational auto-encoder, compresses data into latent attributes, and
generates new data of different varieties. VAE based on KL divergence has been
considered as an effective technique for data augmentation. In this paper, we
propose the use of Wasserstein distance as a measure of distributional
similarity for the latent attributes, and show its superior theoretical lower
bound (ELBO) compared with that of KL divergence under mild conditions. Using
multiple experiments, we demonstrate that the new loss function exhibits better
convergence property and generates artificial images that could better aid the
image classification tasks.
- Abstract(参考訳): VAEまたは変分自動エンコーダは、データを潜在属性に圧縮し、異なる種類の新しいデータを生成する。
KL分散に基づくVAEは、データ拡張に有効な手法であると考えられている。
本稿では,潜在属性の分布類似性の尺度としてワッサースタイン距離を用いることを提案し,その理論的下界(ELBO)が,軽度条件下でのKLの発散よりも優れていることを示す。
複数の実験を用いて,新しい損失関数は収束性が向上し,画像分類タスクに役立つ人工画像を生成することを実証した。
関連論文リスト
- PH-VAE: A Polynomial Hierarchical Variational Autoencoder Towards Disentangled Representation Learning [5.478519374490149]
Diveral Autoencoder (VAE) は、様々な種類のデータの複雑な確率分布をモデル化するための、シンプルで効率的な生成人工知能手法である。
階層型変動オートエンコーダ (PH-VAE) を開発した。
また,KL(Kulback-Leibler)の変分を置き換えたり一般化したりするために,変分損失関数の多項偏差を新たに提案した。
論文 参考訳(メタデータ) (2025-02-05T03:25:32Z) - Convolve and Conquer: Data Comparison with Wiener Filters [0.0]
Wiener-filter理論に触発されたペアサンプル間の(離散的な)相似性を測定する新しい手法を提案する。
我々は、データ圧縮、医用画像計算、翻訳分類、非パラメトリック生成モデリングの4つの機械学習応用において、我々のアプローチを検証した。
論文 参考訳(メタデータ) (2023-11-11T12:28:31Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Optimizing Hierarchical Image VAEs for Sample Quality [0.0]
階層的変動オートエンコーダ (VAE) は, 画像モデリングタスクにおいて, 高精度な密度推定を実現している。
これは、画像の非知覚的な詳細を圧縮する過度に強調する学習表現によるものである。
我々は,各潜伏群におけるインフォメーション量を制御するKL重み付け戦略を導入し,学習目標のシャープネスを低減するためにガウス出力層を用いる。
論文 参考訳(メタデータ) (2022-10-18T23:10:58Z) - AS-IntroVAE: Adversarial Similarity Distance Makes Robust IntroVAE [8.294692832460546]
IntroVAEやS-IntroVAEのようなイントロスペクティブモデルは、画像生成や再構成タスクに優れています。
我々は、AS-IntroVAE(Adversarial similarity Distance Introspective Variational Autoencoder)と呼ばれるIntroVAEの新しいバリエーションを提案する。
論文 参考訳(メタデータ) (2022-06-28T11:40:17Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Learnable Bernoulli Dropout for Bayesian Deep Learning [53.79615543862426]
Learnable Bernoulli Dropout (LBD) は、他のモデルパラメータと共に最適化されたパラメータとしてドロップアウト率を考慮する新しいモデルに依存しないドロップアウトスキームである。
LBDは画像分類とセマンティックセグメンテーションにおける精度と不確実性の推定を改善する。
論文 参考訳(メタデータ) (2020-02-12T18:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。