論文の概要: When do GANs replicate? On the choice of dataset size
- arxiv url: http://arxiv.org/abs/2202.11765v1
- Date: Wed, 23 Feb 2022 20:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 16:27:35.729887
- Title: When do GANs replicate? On the choice of dataset size
- Title(参考訳): GANはいつ複製されますか?
データセットサイズの選択について
- Authors: Qianli Feng, Chenqi Guo, Fabian Benitez-Quiroz, Aleix Martinez
- Abstract要約: 我々は,データセットのサイズとその複雑さが,GANの複製と知覚品質において重要な役割を果たすことを示した。
この発見は、GANレプリケーションを防止するために、最小限のデータセットサイズでワンショットで見積もる実用的なツールに繋がる。
- 参考スコア(独自算出の注目度): 1.3381749415517021
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Do GANs replicate training images? Previous studies have shown that GANs do
not seem to replicate training data without significant change in the training
procedure. This leads to a series of research on the exact condition needed for
GANs to overfit to the training data. Although a number of factors has been
theoretically or empirically identified, the effect of dataset size and
complexity on GANs replication is still unknown. With empirical evidence from
BigGAN and StyleGAN2, on datasets CelebA, Flower and LSUN-bedroom, we show that
dataset size and its complexity play an important role in GANs replication and
perceptual quality of the generated images. We further quantify this
relationship, discovering that replication percentage decays exponentially with
respect to dataset size and complexity, with a shared decaying factor across
GAN-dataset combinations. Meanwhile, the perceptual image quality follows a
U-shape trend w.r.t dataset size. This finding leads to a practical tool for
one-shot estimation on minimal dataset size to prevent GAN replication which
can be used to guide datasets construction and selection.
- Abstract(参考訳): GANはトレーニングイメージを複製するのか?
これまでの研究では、gansはトレーニング手順を大きく変更することなくトレーニングデータを複製していないことが示されている。
これは、GANがトレーニングデータに過度に適合するために必要な正確な条件に関する一連の研究につながります。
理論的にも経験的にも多くの要因が特定されているが、データセットのサイズと複雑さがGANの複製に与える影響はまだ分かっていない。
データセットのCelebA, Flower, LSUN-bedroomにおけるBigGANとStyleGAN2の実証的証拠により, データセットのサイズとその複雑さが生成した画像のGANの複製と知覚品質において重要な役割を果たすことを示した。
この関係をさらに定量化し、gan-データセットの組み合わせ間で共有減衰係数を用いて、レプリケーションの割合がデータセットのサイズと複雑性に関して指数関数的に減少することを発見した。
一方、知覚画像の品質はU字型トレンドw.r.tデータセットのサイズに従っている。
この発見は、データセットの構築と選択のガイドに使用できるganレプリケーションを防止するために、最小データセットサイズでのワンショット推定のための実用的なツールとなる。
関連論文リスト
- Medical Imaging Complexity and its Effects on GAN Performance [1.776717121506676]
医用医用画像合成は, 画像合成のための強力な手法として, GAN (Generative Adversarial Network) による医用画像合成が登場した。
サンプルデータセットサイズと生成された画像の忠実度との関係を計測するベンチマークを実験的に確立する。
サンプルサイズが変化する複数の医用画像データセットをトレーニングした,最先端の2つのGANであるStyleGAN 3とSPADE-GANを用いて実験を行った。
論文 参考訳(メタデータ) (2024-10-23T15:28:25Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Intriguing Property and Counterfactual Explanation of GAN for Remote Sensing Image Generation [25.96740500337747]
GAN(Generative Adversarial Network)は、自然画像の分野で顕著な進歩を遂げている。
GANモデルは、自然な画像生成よりも、RS画像生成のためのトレーニングデータのサイズに敏感である。
本稿では,一様正則化(UR)とエントロピー正則化(ER)という2つの革新的な調整手法を提案する。
論文 参考訳(メタデータ) (2023-03-09T13:22:50Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Ensembles of GANs for synthetic training data generation [7.835101177261939]
トレーニングデータ不足は、ほとんどのディープラーニングプラクティスにとって大きなボトルネックです。
本研究は,gans(generative adversarial networks)が生成した合成画像のトレーニングデータとしての利用について検討する。
論文 参考訳(メタデータ) (2021-04-23T19:38:48Z) - Lessons Learned from the Training of GANs on Artificial Datasets [0.0]
GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2020-07-13T14:51:02Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - A Close Look at Deep Learning with Small Data [0.0]
モデル複雑性は、クラス毎に数個のサンプルしか利用できない場合に重要な要素であることを示す。
また、標準的なデータ拡張であっても、認識性能を大きなマージンで向上させることができることを示す。
論文 参考訳(メタデータ) (2020-03-28T17:11:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。