論文の概要: Unbiased Auxiliary Classifier GANs with MINE
- arxiv url: http://arxiv.org/abs/2006.07567v1
- Date: Sat, 13 Jun 2020 05:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 20:50:53.744474
- Title: Unbiased Auxiliary Classifier GANs with MINE
- Title(参考訳): MINEによる無バイアス補助分類
- Authors: Ligong Han, Anastasis Stathopoulos, Tao Xue, Dimitris Metaxas
- Abstract要約: 本研究では,MINE(Mutual Information Neural Estorimat)を用いたUnbiased Auxiliary GAN(UAC-GAN)を提案する。
UAC-GANは3つのデータセット上でAC-GANやTACGANより優れている。
- 参考スコア(独自算出の注目度): 7.902878869106766
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Auxiliary Classifier GANs (AC-GANs) are widely used conditional generative
models and are capable of generating high-quality images. Previous work has
pointed out that AC-GAN learns a biased distribution. To remedy this, Twin
Auxiliary Classifier GAN (TAC-GAN) introduces a twin classifier to the min-max
game. However, it has been reported that using a twin auxiliary classifier may
cause instability in training. To this end, we propose an Unbiased Auxiliary
GANs (UAC-GAN) that utilizes the Mutual Information Neural Estimator (MINE) to
estimate the mutual information between the generated data distribution and
labels. To further improve the performance, we also propose a novel
projection-based statistics network architecture for MINE. Experimental results
on three datasets, including Mixture of Gaussian (MoG), MNIST and CIFAR10
datasets, show that our UAC-GAN performs better than AC-GAN and TAC-GAN. Code
can be found on the project website.
- Abstract(参考訳): Auxiliary Classifier GAN(AC-GAN)は、条件付き生成モデルとして広く用いられ、高品質な画像を生成することができる。
これまでの研究では、AC-GANがバイアス分布を学習していることが指摘されている。
これを解決するため、Twin Auxiliary Classifier GAN (TAC-GAN) はmin-maxゲームにツイン分類器を導入する。
しかし、ツイン補助分類器の使用は訓練の不安定性を引き起こす可能性があると報告されている。
そこで本研究では、相互情報ニューラルネットワーク推定器(mine)を用いて、生成されたデータ分布とラベル間の相互情報を推定する非バイアス補助gans(uac-gan)を提案する。
さらに性能を向上させるため,新しい予測ベースの統計ネットワークアーキテクチャを提案する。
ガウスの混合(MoG)、MNIST、CIFAR10の3つのデータセットの実験結果から、UAC-GANはAC-GANやTAC-GANよりも優れた性能を示した。
コードはプロジェクトのWebサイトにある。
関連論文リスト
- Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Sequential training of GANs against GAN-classifiers reveals correlated
"knowledge gaps" present among independently trained GAN instances [1.104121146441257]
我々は、繰り返しGAN分類器を訓練し、分類器を「偽」するGANを訓練する。
本稿では, GAN訓練力学, 出力品質, GAN分類器の一般化に対する効果について検討する。
論文 参考訳(メタデータ) (2023-03-27T18:18:15Z) - Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training [45.70113212633225]
条件付き生成逆数ネットワーク(cGAN)は、クラス情報をGANに組み込んで現実的な画像を生成する。
最も一般的なcGANの1つは、ソフトマックスクロスエントロピー損失(ACGAN)を持つ補助分類器GANである。
ACGANはまた、多様性の欠如により容易に分類できるサンプルを生成する傾向がある。
論文 参考訳(メタデータ) (2021-11-01T17:51:33Z) - A Unified View of cGANs with and without Classifiers [24.28407308818025]
Conditional Generative Adversarial Networks (cGANs) は、クラス条件分布からサンプリングできる暗黙の生成モデルである。
いくつかの代表的cGANは、分類器を使わずに最先端のパフォーマンスに到達するのを避ける。
本研究では,cGANを改善するために,分類器を適切に活用できることを実証する。
論文 参考訳(メタデータ) (2021-11-01T15:36:33Z) - cGANs with Auxiliary Discriminative Classifier [43.78253518292111]
条件付き生成モデルは、データとラベルの基本的な結合分布を学習することを目的としている。
副分類器生成敵ネットワーク (AC-GAN) は広く用いられているが, 生成標本のクラス内多様性の低い問題に悩まされている。
本稿では,AC-GANの問題に対処するため,補助識別器(ADC-GAN)を用いた新しいcGANを提案する。
論文 参考訳(メタデータ) (2021-07-21T13:06:32Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - xAI-GAN: Enhancing Generative Adversarial Networks via Explainable AI
Systems [16.360144499713524]
Generative Adversarial Networks (GAN) は、現実的な画像、音楽、テキスト、その他のデータの生成に成功しているディープニューラルネットワーク(DNN)の革命的なクラスである。
本稿では、AI(xAI)システムにおける最近の進歩を活用して、識別器からジェネレータへの「よりリッチな」修正フィードバックを提供する新しいGANクラスを提案する。
我々は、xAI-GANが標準GANよりも、MNISTとFMNISTの両方のデータセットで生成された画像の品質を最大23.18%向上させるのを観察する。
論文 参考訳(メタデータ) (2020-02-24T18:38:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。