論文の概要: GLeaD: Improving GANs with A Generator-Leading Task
- arxiv url: http://arxiv.org/abs/2212.03752v2
- Date: Wed, 7 Jun 2023 03:34:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 19:42:23.617888
- Title: GLeaD: Improving GANs with A Generator-Leading Task
- Title(参考訳): GLeaD: ジェネレータリードタスクによるGANの改善
- Authors: Qingyan Bai, Ceyuan Yang, Yinghao Xu, Xihui Liu, Yujiu Yang, Yujun
Shen
- Abstract要約: ジェネレータ(G)とディスクリミネータ(D)の2プレーヤゲームとしてGAN(Generative Adversarial Network)を定式化する
本稿では,G が D にタスクを割り当てる新たなパラダイムを提案する。
- 参考スコア(独自算出の注目度): 44.14659523033865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial network (GAN) is formulated as a two-player game
between a generator (G) and a discriminator (D), where D is asked to
differentiate whether an image comes from real data or is produced by G. Under
such a formulation, D plays as the rule maker and hence tends to dominate the
competition. Towards a fairer game in GANs, we propose a new paradigm for
adversarial training, which makes G assign a task to D as well. Specifically,
given an image, we expect D to extract representative features that can be
adequately decoded by G to reconstruct the input. That way, instead of learning
freely, D is urged to align with the view of G for domain classification.
Experimental results on various datasets demonstrate the substantial
superiority of our approach over the baselines. For instance, we improve the
FID of StyleGAN2 from 4.30 to 2.55 on LSUN Bedroom and from 4.04 to 2.82 on
LSUN Church. We believe that the pioneering attempt present in this work could
inspire the community with better designed generator-leading tasks for GAN
improvement.
- Abstract(参考訳): 生成逆数ネットワーク(GAN)は、ジェネレータ(G)と識別器(D)との間の2プレーヤゲームとして定式化され、Dには、画像が実データから来るか、Gによって生成されるかの区別が求められる。
GANにおけるより公平なゲームに向けて、G が D にタスクを割り当てるような対戦訓練の新しいパラダイムを提案する。
具体的には、画像が与えられた場合、D は G によって適切に復号化して入力を再構成できる代表的特徴を抽出することを期待する。
このようにして、自由学習の代わりに、D は領域分類に対する G の見解と一致するよう促される。
各種データセットに対する実験結果は,ベースラインに対するアプローチのかなりの優位性を示している。
例えば、LSUNベッドルームではStyleGAN2のFIDを4.30から2.55に、LSUN教会では4.04から2.82に改善する。
この活動における先駆的な試みは、gan改善のためにより良い設計のジェネレータリードタスクをコミュニティに促すことができると信じています。
関連論文リスト
- SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Distilling Representations from GAN Generator via Squeeze and Span [55.76208869775715]
本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
論文 参考訳(メタデータ) (2022-11-06T01:10:28Z) - DGL-GAN: Discriminator Guided Learning for GAN Compression [57.6150859067392]
高計算コストのGAN(Generative Adversarial Networks)は、ランダムノイズから高分解能画像を合成する際、顕著な成果を上げている。
本稿では,bf DGL-GAN と呼ばれるバニラ bf GAN を圧縮するための,新しい単純な bf 識別器 bf 誘導 bf 学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T09:24:45Z) - Improving GAN Equilibrium by Raising Spatial Awareness [80.71970464638585]
ジェネレータ(G)とディスクリミネータ(D)の対向トレーニングに基づいてGAN(Generative Adversarial Networks)を構築する
実際には、GANトレーニングにおいてそのような平衡を達成することは困難であり、代わりにDは常にGを超える。
本稿では,Gの空間認識とDから誘導される注意マップの整合性を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:55:51Z) - Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training [45.70113212633225]
条件付き生成逆数ネットワーク(cGAN)は、クラス情報をGANに組み込んで現実的な画像を生成する。
最も一般的なcGANの1つは、ソフトマックスクロスエントロピー損失(ACGAN)を持つ補助分類器GANである。
ACGANはまた、多様性の欠如により容易に分類できるサンプルを生成する傾向がある。
論文 参考訳(メタデータ) (2021-11-01T17:51:33Z) - DeepNAG: Deep Non-Adversarial Gesture Generation [4.46895288699085]
GAN(Generative Adversarial Network)では,画像データ拡張性能が向上している。
GANは同時生成と識別器ネットワークのトレーニングを必要とする。
我々はまず,DeepGANと呼ばれるジェスチャー合成のための新しいデバイスに依存しないGANモデルについて論じる。
論文 参考訳(メタデータ) (2020-11-18T08:00:12Z) - Exploring DeshuffleGANs in Self-Supervised Generative Adversarial
Networks [0.0]
本稿では,デシャッフルGANを一般化可能な文脈でデシャッフルする自己超越タスクの寄与について検討する。
DeshuffleGANは、他の自己教師型GANと比較して、複数のデータセットに対して最良のFID結果が得られることを示す。
我々は,cDeshuffleGANと呼ばれる条件付きDeshuffleGANを設計し,学習した表現の質を評価する。
論文 参考訳(メタデータ) (2020-11-03T14:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。