論文の概要: Lessons Learned from the Training of GANs on Artificial Datasets
- arxiv url: http://arxiv.org/abs/2007.06418v2
- Date: Tue, 14 Jul 2020 15:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 22:55:51.620917
- Title: Lessons Learned from the Training of GANs on Artificial Datasets
- Title(参考訳): 人工データセットにおけるGANの訓練から学んだ教訓
- Authors: Shichang Tang
- Abstract要約: GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have made great progress in
synthesizing realistic images in recent years. However, they are often trained
on image datasets with either too few samples or too many classes belonging to
different data distributions. Consequently, GANs are prone to underfitting or
overfitting, making the analysis of them difficult and constrained. Therefore,
in order to conduct a thorough study on GANs while obviating unnecessary
interferences introduced by the datasets, we train them on artificial datasets
where there are infinitely many samples and the real data distributions are
simple, high-dimensional and have structured manifolds. Moreover, the
generators are designed such that optimal sets of parameters exist.
Empirically, we find that under various distance measures, the generator fails
to learn such parameters with the GAN training procedure. We also find that
training mixtures of GANs leads to more performance gain compared to increasing
the network depth or width when the model complexity is high enough. Our
experimental results demonstrate that a mixture of generators can discover
different modes or different classes automatically in an unsupervised setting,
which we attribute to the distribution of the generation and discrimination
tasks across multiple generators and discriminators. As an example of the
generalizability of our conclusions to realistic datasets, we train a mixture
of GANs on the CIFAR-10 dataset and our method significantly outperforms the
state-of-the-art in terms of popular metrics, i.e., Inception Score (IS) and
Fr\'echet Inception Distance (FID).
- Abstract(参考訳): 近年,GAN(Generative Adversarial Networks)は現実的な画像の合成に大きく進歩している。
しかし、しばしば、サンプルが少ないか、異なるデータ分布に属するクラスが多すぎるイメージデータセットで訓練される。
その結果、GANは不適合や過剰適合の傾向があり、分析が困難で制約される。
したがって、データセットがもたらした不要な干渉を回避しつつ、ganを徹底的に研究するために、無限に多くのサンプルと実際のデータ分布が単純で高次元で構造化多様体を持つ人工データセットでそれらを訓練する。
さらに、ジェネレータは最適なパラメータ集合が存在するように設計されている。
実験により,様々な距離測定において,生成元はGAN訓練手順でそのようなパラメータを学習できないことがわかった。
また、GANのトレーニング混合物は、モデル複雑さが十分に高い場合のネットワーク深さや幅を増大させるよりも、パフォーマンスが向上することがわかった。
実験の結果,複数のジェネレータの混合が教師なし設定で異なるモードや異なるクラスを自動的に発見できることが示され,複数のジェネレータと識別器にまたがる生成タスクと識別タスクの分散を特徴付ける。
現実的なデータセットへの結論の一般化可能性の例として、CIFAR-10データセット上でGANの混合を訓練し、一般的なメトリクス、すなわちインセプションスコア(IS)とFr\echet Inception Distance(FID)で最先端の手法を著しく上回ります。
関連論文リスト
- SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Distributed Traffic Synthesis and Classification in Edge Networks: A
Federated Self-supervised Learning Approach [83.2160310392168]
本稿では,多数の異種データセット上での自動トラフィック解析と合成を支援するFS-GANを提案する。
FS-GANは複数の分散ジェネレーティブ・アドバイサル・ネットワーク(GAN)から構成される
FS-GANは未知のサービスのデータを分類し、未知のタイプのトラフィック分布をキャプチャする合成サンプルを作成する。
論文 参考訳(メタデータ) (2023-02-01T03:23:11Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - FairGen: Fair Synthetic Data Generation [0.3149883354098941]
本稿では,GANアーキテクチャに依存しないより公平な合成データを生成するパイプラインを提案する。
合成データを生成する場合、ほとんどのGANはトレーニングデータに存在するバイアスを増幅するが、これらのバイアスを誘発するサンプルを除去することで、GANは本質的に真の情報的サンプルに重点を置いている、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T08:13:47Z) - MaGNET: Uniform Sampling from Deep Generative Network Manifolds Without
Retraining [9.294580808320534]
我々は、DGNが訓練された場合、学習多様体上に均一に分布するサンプルを生成する、微分幾何学に基づくサンプリング器、MaGNETを開発した。
我々は,この手法がトレーニングセットの分布によらず,多様体上の一様分布を生成することを理論的かつ実証的に証明する。
論文 参考訳(メタデータ) (2021-10-15T11:12:56Z) - VARGAN: Variance Enforcing Network Enhanced GAN [0.6445605125467573]
我々は、GAN(VARGAN)を強制する分散と呼ばれる新しいGANアーキテクチャを導入する。
VARGANは第3のネットワークを組み込んで、生成されたサンプルに多様性を導入する。
高多様性と低計算複雑性、および高速収束により、VARGANはモード崩壊を緩和する有望なモデルとなる。
論文 参考訳(メタデータ) (2021-09-05T16:28:21Z) - On the Fairness of Generative Adversarial Networks (GANs) [1.061960673667643]
GAN(Generative adversarial Network)は、近年のAIの最大の進歩の1つです。
本稿では,GANモデルの公平性に関する問題を分析し,強調する。
論文 参考訳(メタデータ) (2021-03-01T12:25:01Z) - Generative Adversarial Networks (GANs): An Overview of Theoretical
Model, Evaluation Metrics, and Recent Developments [9.023847175654602]
GAN(Generative Adversarial Network)は,大規模データ分散のサンプルを作成する上で有効な手法である。
GANはラベル付きトレーニングデータを広く使用せずにディープ表現を学習する適切な方法を提供する。
GANでは、ジェネレータと識別器のネットワークを同時にトレーニングする競合プロセスを通じて生成モデルを推定する。
論文 参考訳(メタデータ) (2020-05-27T05:56:53Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z) - Brainstorming Generative Adversarial Networks (BGANs): Towards
Multi-Agent Generative Models with Distributed Private Datasets [70.62568022925971]
生成的敵ネットワーク(GAN)は、データ空間を適切に表現する大規模なデータセットによって供給されなければならない。
多くのシナリオでは、利用可能なデータセットは制限され、複数のエージェントに分散する可能性がある。
本稿では,BGAN(Breepstorming GAN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-02T02:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。