論文の概要: Collapse by Conditioning: Training Class-conditional GANs with Limited
Data
- arxiv url: http://arxiv.org/abs/2201.06578v1
- Date: Mon, 17 Jan 2022 18:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 07:27:56.116642
- Title: Collapse by Conditioning: Training Class-conditional GANs with Limited
Data
- Title(参考訳): コンディショニングによる崩壊:限られたデータによるクラス条件付きGANの訓練
- Authors: Mohamad Shahbazi, Martin Danelljan, Danda Pani Paudel, Luc Van Gool
- Abstract要約: 非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
- 参考スコア(独自算出の注目度): 109.30895503994687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class-conditioning offers a direct means of controlling a Generative
Adversarial Network (GAN) based on a discrete input variable. While necessary
in many applications, the additional information provided by the class labels
could even be expected to benefit the training of the GAN itself. Contrary to
this belief, we observe that class-conditioning causes mode collapse in limited
data settings, where unconditional learning leads to satisfactory generative
ability. Motivated by this observation, we propose a training strategy for
conditional GANs (cGANs) that effectively prevents the observed mode-collapse
by leveraging unconditional learning. Our training strategy starts with an
unconditional GAN and gradually injects conditional information into the
generator and the objective function. The proposed method for training cGANs
with limited data results not only in stable training but also in generating
high-quality images, thanks to the early-stage exploitation of the shared
information across classes. We analyze the aforementioned mode collapse problem
in comprehensive experiments on four datasets. Our approach demonstrates
outstanding results compared with state-of-the-art methods and established
baselines. The code is available at:
https://github.com/mshahbazi72/transitional-cGAN
- Abstract(参考訳): クラスコンディショニングは、離散的な入力変数に基づいてGAN(Generative Adversarial Network)を制御する直接的な手段を提供する。
多くのアプリケーションで必要とされるが、クラスラベルによって提供される追加情報は、gan自体のトレーニングの恩恵を受けることさえ期待できる。
このような考え方とは対照的に,非条件学習が十分な生成能力をもたらす限定的なデータ設定において,クラスコンディショニングがモード崩壊を引き起こすことを観察する。
本研究では, 条件付きGAN(cGAN)の学習戦略を提案し, 非条件学習を活用することで, 観測モードの崩壊を効果的に防止する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
クラス間での情報共有を早期に活用するため, 安定したトレーニングだけでなく, 高品質な画像生成にも限られたデータでcGANを訓練する方法を提案する。
4つのデータセットの包括的実験において,前述のモード崩壊問題を解析する。
本手法は,最先端手法や確立されたベースラインと比較し,優れた結果を示す。
コードは以下の通り。 https://github.com/mshahbazi72/transitional-cGAN
関連論文リスト
- Diffusion-Driven Data Replay: A Novel Approach to Combat Forgetting in Federated Class Continual Learning [13.836798036474143]
Federated Class Continual Learningにおける大きな課題は、破滅的な忘れ方だ。
本研究では拡散モデルに基づく新しいデータ再生手法を提案する。
我々の手法は既存のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2024-09-02T10:07:24Z) - Taming the Tail in Class-Conditional GANs: Knowledge Sharing via Unconditional Training at Lower Resolutions [10.946446480162148]
GANはより多くのサンプルを持つクラスを好む傾向があり、尾クラスの低品質で多様性の低いサンプルが生成される。
そこで我々は,より豊富な学習データを持つクラスから,テールクラスが豊富な情報から借用できる,知識共有の単純かつ効果的な方法を提案する。
いくつかのロングテールベンチマークとGANアーキテクチャの実験は、生成された画像の多様性と忠実さの両方において、既存の手法よりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2024-02-26T23:03:00Z) - Zero-Shot Conditioning of Score-Based Diffusion Models by Neuro-Symbolic Constraints [1.1826485120701153]
本研究では,事前学習した無条件スコアベース生成モデルを用いて,任意の論理的制約の下で条件分布からサンプルを抽出する手法を提案する。
ユーザ定義制約の非正規化分布条件から標本化するために,学習したスコアの操作方法を示す。
ソフト論理制約を符号化するための柔軟で数値的に安定なニューロシンボリック・フレームワークを定義する。
論文 参考訳(メタデータ) (2023-08-31T08:25:47Z) - Information-theoretic stochastic contrastive conditional GAN:
InfoSCC-GAN [6.201770337181472]
本稿では,探索可能な潜伏空間を有するコントラスト条件生成対向ネットワーク(Info SCC-GAN)を提案する。
インフォメーションSCC-GANは、入力データと潜時空間表現の間の相互情報の情報理論的定式化に基づいて導出される。
実験により、Info SCC-GANはAFHQとCelebAデータセットの画像生成において、"vanilla" EigenGANよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-12-17T17:56:30Z) - Black-Box Diagnosis and Calibration on GAN Intra-Mode Collapse: A Pilot
Study [116.05514467222544]
現在、GAN(Generative Adversarial Network)は驚くべきリアリズムの画像を生成することができる。
懸念の1つは、最先端のGANの学習分布が依然としてモード崩壊に悩まされているかどうかである。
本稿では,GANのモード内崩壊を診断し,新たなブラックボックス設定でそれを校正する方法について検討する。
論文 参考訳(メタデータ) (2021-07-23T06:03:55Z) - Efficient Conditional GAN Transfer with Knowledge Propagation across
Classes [85.38369543858516]
CGANは、無条件設定と比較して新しい知識移転の機会を提供します。
新しいクラスは、関連する古いクラスから知識を借りたり、トレーニングを改善するために知識を共有したりする。
新しいGAN転送手法は、古いクラスから新しいクラスへの知識を明示的に伝達する。
論文 参考訳(メタデータ) (2021-02-12T18:55:34Z) - S2cGAN: Semi-Supervised Training of Conditional GANs with Fewer Labels [1.3764085113103222]
条件付きGAN(cGAN)は、ユーザ定義入力に出力を条件付けすることで生成プロセスを制御するメカニズムを提供する。
スパースラベルを用いて条件付きマッピングを学習するcGANの半教師付きトレーニングフレームワークを提案する。
提案手法の有効性を,複数のデータセットと異なる条件付きタスクで示す。
論文 参考訳(メタデータ) (2020-10-23T19:13:44Z) - Conditional Hybrid GAN for Sequence Generation [56.67961004064029]
本稿では,この問題を解決するための条件付きハイブリッドGAN(C-Hybrid-GAN)を提案する。
我々はGumbel-Softmax法を利用して離散値列の分布を近似する。
提案したC-Hybrid-GANは、文脈条件付き離散値シーケンス生成において既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-18T03:52:55Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z) - Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs [104.85633684716296]
判別器の冷凍下層を有するGANの簡易微調整が驚くほど良好であることを示す。
この単純なベースラインであるFreezeDは、非条件GANと条件GANの両方で使用されている従来の技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-02-25T15:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。