論文の概要: Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training
- arxiv url: http://arxiv.org/abs/2111.01118v1
- Date: Mon, 1 Nov 2021 17:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 13:26:52.855115
- Title: Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training
- Title(参考訳): ACGANの再起動: 安定トレーニングによる補助分類型GAN
- Authors: Minguk Kang, Woohyeon Shim, Minsu Cho, Jaesik Park
- Abstract要約: 条件付き生成逆数ネットワーク(cGAN)は、クラス情報をGANに組み込んで現実的な画像を生成する。
最も一般的なcGANの1つは、ソフトマックスクロスエントロピー損失(ACGAN)を持つ補助分類器GANである。
ACGANはまた、多様性の欠如により容易に分類できるサンプルを生成する傾向がある。
- 参考スコア(独自算出の注目度): 45.70113212633225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional Generative Adversarial Networks (cGAN) generate realistic images
by incorporating class information into GAN. While one of the most popular
cGANs is an auxiliary classifier GAN with softmax cross-entropy loss (ACGAN),
it is widely known that training ACGAN is challenging as the number of classes
in the dataset increases. ACGAN also tends to generate easily classifiable
samples with a lack of diversity. In this paper, we introduce two cures for
ACGAN. First, we identify that gradient exploding in the classifier can cause
an undesirable collapse in early training, and projecting input vectors onto a
unit hypersphere can resolve the problem. Second, we propose the Data-to-Data
Cross-Entropy loss (D2D-CE) to exploit relational information in the
class-labeled dataset. On this foundation, we propose the Rebooted Auxiliary
Classifier Generative Adversarial Network (ReACGAN). The experimental results
show that ReACGAN achieves state-of-the-art generation results on CIFAR10,
Tiny-ImageNet, CUB200, and ImageNet datasets. We also verify that ReACGAN
benefits from differentiable augmentations and that D2D-CE harmonizes with
StyleGAN2 architecture. Model weights and a software package that provides
implementations of representative cGANs and all experiments in our paper are
available at https://github.com/POSTECH-CVLab/PyTorch-StudioGAN.
- Abstract(参考訳): 条件付き生成逆数ネットワーク(cGAN)は、クラス情報をGANに組み込んで現実的な画像を生成する。
最も一般的なcGANの1つは、ソフトマックスクロスエントロピー損失(ACGAN)を持つ補助分類器GANであるが、データセットのクラス数が増加するにつれて、ACGANのトレーニングが困難であることが広く知られている。
ACGANはまた、多様性の欠如により容易に分類できるサンプルを生成する傾向がある。
本稿では,ACGANの治療法を2つ紹介する。
まず,分類器内での勾配爆発は早期学習において望ましくない崩壊を引き起こし,入力ベクトルを単位超球面に投影することで問題を解くことができる。
次に,データ対データクロスエントロピー損失 (d2d-ce) を提案する。
本稿では,Rebooted Auxiliary Classifier Generative Adversarial Network (ReACGAN)を提案する。
実験結果から,ReACGANはCIFAR10, Tiny-ImageNet, CUB200, ImageNetのデータセット上で,最先端の生成結果が得られることがわかった。
また、ReACGANは差別化可能な拡張による利点があり、D2D-CEがStyleGAN2アーキテクチャと調和していることを検証する。
モデル重みと代表的なcGANの実装を提供するソフトウェアパッケージはhttps://github.com/POSTECH-CVLab/PyTorch-StudioGANで公開されている。
関連論文リスト
- Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Spider GAN: Leveraging Friendly Neighbors to Accelerate GAN Training [20.03447539784024]
本稿では,画像を入力とするGANの学習手法を提案する。
このプロセスは、密接に関連するデータセットや、ターゲット分布のフレンドリーな近所'を識別することで、効率的に行うことができる。
我々は、スパイダーガンの定式化がより高速な収束をもたらすことを示し、ジェネレータは、一見無関係なデータセットでさえ対応を発見できることを示した。
論文 参考訳(メタデータ) (2023-05-12T17:03:18Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Sequential training of GANs against GAN-classifiers reveals correlated
"knowledge gaps" present among independently trained GAN instances [1.104121146441257]
我々は、繰り返しGAN分類器を訓練し、分類器を「偽」するGANを訓練する。
本稿では, GAN訓練力学, 出力品質, GAN分類器の一般化に対する効果について検討する。
論文 参考訳(メタデータ) (2023-03-27T18:18:15Z) - DGL-GAN: Discriminator Guided Learning for GAN Compression [57.6150859067392]
高計算コストのGAN(Generative Adversarial Networks)は、ランダムノイズから高分解能画像を合成する際、顕著な成果を上げている。
本稿では,bf DGL-GAN と呼ばれるバニラ bf GAN を圧縮するための,新しい単純な bf 識別器 bf 誘導 bf 学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T09:24:45Z) - A Unified View of cGANs with and without Classifiers [24.28407308818025]
Conditional Generative Adversarial Networks (cGANs) は、クラス条件分布からサンプリングできる暗黙の生成モデルである。
いくつかの代表的cGANは、分類器を使わずに最先端のパフォーマンスに到達するのを避ける。
本研究では,cGANを改善するために,分類器を適切に活用できることを実証する。
論文 参考訳(メタデータ) (2021-11-01T15:36:33Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Unbiased Auxiliary Classifier GANs with MINE [7.902878869106766]
本研究では,MINE(Mutual Information Neural Estorimat)を用いたUnbiased Auxiliary GAN(UAC-GAN)を提案する。
UAC-GANは3つのデータセット上でAC-GANやTACGANより優れている。
論文 参考訳(メタデータ) (2020-06-13T05:51:51Z) - xAI-GAN: Enhancing Generative Adversarial Networks via Explainable AI
Systems [16.360144499713524]
Generative Adversarial Networks (GAN) は、現実的な画像、音楽、テキスト、その他のデータの生成に成功しているディープニューラルネットワーク(DNN)の革命的なクラスである。
本稿では、AI(xAI)システムにおける最近の進歩を活用して、識別器からジェネレータへの「よりリッチな」修正フィードバックを提供する新しいGANクラスを提案する。
我々は、xAI-GANが標準GANよりも、MNISTとFMNISTの両方のデータセットで生成された画像の品質を最大23.18%向上させるのを観察する。
論文 参考訳(メタデータ) (2020-02-24T18:38:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。