論文の概要: Unbalanced GANs: Pre-training the Generator of Generative Adversarial
Network using Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2002.02112v1
- Date: Thu, 6 Feb 2020 06:03:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-03 09:44:40.203164
- Title: Unbalanced GANs: Pre-training the Generator of Generative Adversarial
Network using Variational Autoencoder
- Title(参考訳): unbalanced gans:変分オートエンコーダを用いた生成逆ネットワーク生成の事前学習
- Authors: Hyungrok Ham, Tae Joon Jun, Daeyoung Kim
- Abstract要約: 可変オートエンコーダ (VAE) を用いたGAN(Generative Adversarial Network) ジェネレータの非平衡GANの事前訓練
その結果,非バランスなGANは,学習の安定化,収束の高速化,画像品質の向上などにより,通常のGANよりも優れていた。
- 参考スコア(独自算出の注目度): 3.070321681886867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Unbalanced GANs, which pre-trains the generator of the generative
adversarial network (GAN) using variational autoencoder (VAE). We guarantee the
stable training of the generator by preventing the faster convergence of the
discriminator at early epochs. Furthermore, we balance between the generator
and the discriminator at early epochs and thus maintain the stabilized training
of GANs. We apply Unbalanced GANs to well known public datasets and find that
Unbalanced GANs reduce mode collapses. We also show that Unbalanced GANs
outperform ordinary GANs in terms of stabilized learning, faster convergence
and better image quality at early epochs.
- Abstract(参考訳): 本研究では, 可変オートエンコーダ(VAE)を用いたGAN(Generative Adversarial Network)の生成を事前学習するUn Balanced GANを提案する。
我々は,早期の判別器の収束を防止し,発電機の安定な訓練を保証する。
さらに, 早期に発生器と識別器のバランスを保ち, GANの安定訓練を継続する。
我々は、アンバランスなGANをよく知られた公開データセットに適用し、アンバランスなGANがモード崩壊を減らすことを発見した。
また,非バランスなGANは,学習の安定化,収束の高速化,画像品質の向上などにより,通常のGANよりも優れていた。
関連論文リスト
- Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Revisiting Discriminator in GAN Compression: A Generator-discriminator
Cooperative Compression Scheme [65.5405625485559]
GAN圧縮は、リソース制約のあるエッジデバイスにGANをデプロイする際の計算オーバーヘッドとメモリ使用量を大幅に削減することを目的としている。
本稿では,GAN圧縮における識別器の役割を再考し,GAN圧縮のための新しいジェネレータ-識別器協調圧縮スキームであるGCCを設計する。
論文 参考訳(メタデータ) (2021-10-27T13:54:55Z) - MSGDD-cGAN: Multi-Scale Gradients Dual Discriminator Conditional
Generative Adversarial Network [14.08122854653421]
MSGDD-cGANは、条件付き生成逆数ネットワーク(cGAN)の性能を安定化するために提案される。
本モデルでは,CGANのピクセルバージョンと比較してF1スコアが3.18%増加した。
論文 参考訳(メタデータ) (2021-09-12T21:08:37Z) - Self-supervised GANs with Label Augmentation [43.78253518292111]
本稿では,ラベルの強化,すなわち,自己教師付き擬似ラベルによるGANラベル(実物または偽物)の増大を図った,新たな自己教師型GANフレームワークを提案する。
提案手法は,生成モデルと表現学習の両面において,競争ベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-06-16T07:58:00Z) - Removing Class Imbalance using Polarity-GAN: An Uncertainty Sampling
Approach [0.0]
本稿では,ジェネレータネットワークg,判別器ネットワークd,分類器ネットワークcを備えた生成型逆ネットワーク(gan)を提案する。
FashionMNIST, MNIST, SVHN, ExDark, MVTec Anomaly データセット, Chest X-Ray データセット上での極端視覚的分類タスクにおけるアートパフォーマンスの状況について述べる。
論文 参考訳(メタデータ) (2020-12-09T09:40:07Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - FedGAN: Federated Generative Adversarial Networks for Distributed Data [9.812506929134424]
我々は,非独立分散データソースの分散ソース間でGANをトレーニングするためのフェデレーション・ジェネラル・アドバイサル・ネットワーク(FedGAN)を提案する。
ローカルジェネレータとディスクリミネータを使用し、インターメディアを介して定期的に同期し、ジェネレータとディスクリミネータパラメータを平均化しブロードキャストします。
我々は、FedGANが収束し、一般的な分散GANと同等の性能を持つことを示したが、通信の複雑さは減少する。
論文 参考訳(メタデータ) (2020-06-12T14:36:43Z) - Robust Generative Adversarial Network [37.015223009069175]
トレーニングサンプルの小さな地区における局所的ロバスト性を促進することにより,GANの一般化能力の向上を目指す。
我々は,ジェネレータと識別器が,小さなワッサーシュタイン球内でテキストワーストケース設定で互いに競合する,ロバストな最適化フレームワークを設計する。
我々の頑健な手法は、穏やかな仮定の下で従来のGANよりも厳密な一般化上限が得られることを証明した。
論文 参考訳(メタデータ) (2020-04-28T07:37:01Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。