論文の概要: Taming the Tail in Class-Conditional GANs: Knowledge Sharing via
Unconditional Training at Lower Resolutions
- arxiv url: http://arxiv.org/abs/2402.17065v1
- Date: Mon, 26 Feb 2024 23:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 18:21:15.111722
- Title: Taming the Tail in Class-Conditional GANs: Knowledge Sharing via
Unconditional Training at Lower Resolutions
- Title(参考訳): クラスコンディショナルganにおけるテールの改ざん:低分解能非コンディショナルトレーニングによる知識共有
- Authors: Saeed Khorram, Mingqi Jiang, Mohamad Shahbazi, Mohamad H. Danesh, Li
Fuxin
- Abstract要約: GANはより多くのサンプルを持つクラスを好む傾向があり、尾クラスの低品質で多様性の低いサンプルが生成される。
そこで我々は,より豊富な学習データを持つクラスから,テールクラスが豊富な情報から借用できる,知識共有の単純かつ効果的な方法を提案する。
いくつかのロングテールベンチマークとGANアーキテクチャの実験は、生成された画像の多様性と忠実さの両方において、既存の手法よりも大幅に改善されていることを示している。
- 参考スコア(独自算出の注目度): 11.743850818162086
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the extensive research on training generative adversarial networks
(GANs) with limited training data, learning to generate images from long-tailed
training distributions remains fairly unexplored. In the presence of imbalanced
multi-class training data, GANs tend to favor classes with more samples,
leading to the generation of low-quality and less diverse samples in tail
classes. In this study, we aim to improve the training of class-conditional
GANs with long-tailed data. We propose a straightforward yet effective method
for knowledge sharing, allowing tail classes to borrow from the rich
information from classes with more abundant training data. More concretely, we
propose modifications to existing class-conditional GAN architectures to ensure
that the lower-resolution layers of the generator are trained entirely
unconditionally while reserving class-conditional generation for the
higher-resolution layers. Experiments on several long-tail benchmarks and GAN
architectures demonstrate a significant improvement over existing methods in
both the diversity and fidelity of the generated images. The code is available
at https://github.com/khorrams/utlo.
- Abstract(参考訳): トレーニングデータに制限のあるgans(generative adversarial network)のトレーニングに関する広範な研究にもかかわらず、ロングテールのトレーニング分布から画像を生成するための学習は、まだ未定である。
非バランスなマルチクラストレーニングデータが存在するため、ganはより多くのサンプルを持つクラスを好む傾向があり、テールクラスで低品質でより多様性の低いサンプルが生成される。
本研究では,長期データを用いたクラス条件付きGANの訓練を改善することを目的とする。
そこで我々は,より豊富な学習データを持つクラスから,テールクラスが豊富な情報から借用できる,知識共有の単純かつ効果的な方法を提案する。
具体的には,高分解能層に対するクラス条件生成を保ちながら,ジェネレータの低分解能層が完全に無条件で訓練されることを保証するため,既存のクラス条件GANアーキテクチャの変更を提案する。
いくつかのロングテールベンチマークとGANアーキテクチャの実験は、生成された画像の多様性と忠実さの両方において、既存の手法よりも大幅に改善されていることを示している。
コードはhttps://github.com/khorrams/utloで入手できる。
関連論文リスト
- Towards Long-Tailed Recognition for Graph Classification via
Collaborative Experts [10.99232053983369]
我々は,CoMe(Collaborative Multi-expert Learning)を用いたグラフレベル分類フレームワークを提案する。
頭と尾の授業のコントリビューションを均衡させるために,まず表現学習の観点から,バランスの取れたコントラスト学習を開発する。
マルチエキスパートフレームワークにおける協調を促進するために,複数の専門家の間でゲート融合・アンタングルド知識蒸留を実施している。
論文 参考訳(メタデータ) (2023-08-31T10:12:32Z) - FakeCLR: Exploring Contrastive Learning for Solving Latent Discontinuity
in Data-Efficient GANs [24.18718734850797]
Data-Efficient GAN(DE-GAN)は、限られたトレーニングデータで生成モデルを学習することを目的としている。
対照的な学習は、DE-GANの合成品質を高める大きな可能性を示している。
偽のサンプルに対してのみ対照的な学習を行うFakeCLRを提案する。
論文 参考訳(メタデータ) (2022-07-18T14:23:38Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Efficient Conditional GAN Transfer with Knowledge Propagation across
Classes [85.38369543858516]
CGANは、無条件設定と比較して新しい知識移転の機会を提供します。
新しいクラスは、関連する古いクラスから知識を借りたり、トレーニングを改善するために知識を共有したりする。
新しいGAN転送手法は、古いクラスから新しいクラスへの知識を明示的に伝達する。
論文 参考訳(メタデータ) (2021-02-12T18:55:34Z) - Multiclass non-Adversarial Image Synthesis, with Application to
Classification from Very Small Sample [6.243995448840211]
我々は、新しい非逆生成法 - LA(Clustered Optimization of LAtent space)を提案する。
本手法は,全データレギュレーションにおいて,教師なしの多様なマルチクラス画像を生成することができる。
ラベル付き画像の小さなサンプルのみが、追加のラベル付きデータにアクセスせずにトレーニングできる小データ体制では、同じ量のデータでトレーニングされた最先端のGANモデルを上回る結果が得られる。
論文 参考訳(メタデータ) (2020-11-25T18:47:27Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs [104.85633684716296]
判別器の冷凍下層を有するGANの簡易微調整が驚くほど良好であることを示す。
この単純なベースラインであるFreezeDは、非条件GANと条件GANの両方で使用されている従来の技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-02-25T15:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。