論文の概要: The GAN is dead; long live the GAN! A Modern GAN Baseline
- arxiv url: http://arxiv.org/abs/2501.05441v1
- Date: Thu, 09 Jan 2025 18:53:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 14:00:00.329994
- Title: The GAN is dead; long live the GAN! A Modern GAN Baseline
- Title(参考訳): GANは死んだ。GANの長生き! モダンなGANベースライン
- Authors: Yiwen Huang, Aaron Gokaslan, Volodymyr Kuleshov, James Tompkin,
- Abstract要約: より原則的な方法で、現代的なGANベースラインを構築します。
我々は,モードダウンと非収束の問題に対処する正規化相対論的GAN損失を導出する。
このアプローチはFFHQ, ImageNet, CIFAR, Stacked MNISTデータセット上のStyleGAN2を超え, 最先端のGANや拡散モデルと比較した。
- 参考スコア(独自算出の注目度): 17.846481083720235
- License:
- Abstract: There is a widely-spread claim that GANs are difficult to train, and GAN architectures in the literature are littered with empirical tricks. We provide evidence against this claim and build a modern GAN baseline in a more principled manner. First, we derive a well-behaved regularized relativistic GAN loss that addresses issues of mode dropping and non-convergence that were previously tackled via a bag of ad-hoc tricks. We analyze our loss mathematically and prove that it admits local convergence guarantees, unlike most existing relativistic losses. Second, our new loss allows us to discard all ad-hoc tricks and replace outdated backbones used in common GANs with modern architectures. Using StyleGAN2 as an example, we present a roadmap of simplification and modernization that results in a new minimalist baseline -- R3GAN. Despite being simple, our approach surpasses StyleGAN2 on FFHQ, ImageNet, CIFAR, and Stacked MNIST datasets, and compares favorably against state-of-the-art GANs and diffusion models.
- Abstract(参考訳): GANは訓練が難しいという主張が広く出回っており、文学におけるGANアーキテクチャは実証的なトリックで散らばっている。
我々は、この主張に対する証拠を提供し、より原則的な方法で近代的なGANベースラインを構築する。
まず,従来アドホックなトリックの袋を通じて取り組まれていたモードダウンや非収束の問題に対処する,正規化された相対論的GAN損失を導出する。
我々の損失を数学的に分析し、既存の相対論的損失とは異なり、局所収束を保証することを証明した。
第二に、新しい損失は、すべてのアドホックなトリックを破棄し、一般的なGANで使用されている時代遅れのバックボーンをモダンなアーキテクチャに置き換えることを可能にする。
StyleGAN2を例として、単純化と近代化のロードマップを示します。
単純なアプローチではあるが、FFHQ、ImageNet、CIFAR、およびStacked MNISTデータセット上のStyleGAN2を超え、最先端のGANや拡散モデルと比較して好意的に比較する。
関連論文リスト
- LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - How to train your draGAN: A task oriented solution to imbalanced
classification [15.893327571516016]
本稿では,新しいアーキテクチャであるdraGANを用いた,ユニークでパフォーマンスを重視したデータ生成戦略を提案する。
サンプルは、実際のデータと類似性ではなく、分類モデルの性能を最適化する目的で生成される。
経験的に、draGANの優位性を示すと同時に、いくつかの欠点も強調する。
論文 参考訳(メタデータ) (2022-11-18T07:37:34Z) - Prb-GAN: A Probabilistic Framework for GAN Modelling [20.181803514993778]
本稿では,ネットワークパラメータ上の分布を生成するためにドロップアウトを用いた新しいバリエーションを提案する。
我々の手法は非常にシンプルで、既存のGANアーキテクチャの変更はほとんど必要ありません。
論文 参考訳(メタデータ) (2021-07-12T08:04:13Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - DO-GAN: A Double Oracle Framework for Generative Adversarial Networks [28.904057977044374]
GAN(Generative Adversarial Networks)を育成するための新しいアプローチを提案します。
私たちはgeneratorとdiscriminator oraclesを使ってダブルoracleフレームワークをデプロイします。
我々は、バニラGAN、ディープ・コンボリューショナルGAN、スペクトル正規化GAN、スタックドGANなどの確立されたGANアーキテクチャに適用する。
論文 参考訳(メタデータ) (2021-02-17T05:11:18Z) - Towards a Better Global Loss Landscape of GANs [13.50061291734299]
分離可能なGANの実証的損失のグローバルな景観解析について述べる。
合成データの実験では、バッドが実際に盆地に現れることが示されている。
例えば、RpGANは比較的狭い網を持つ分離可能なGANよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-11-10T06:10:52Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs [104.85633684716296]
判別器の冷凍下層を有するGANの簡易微調整が驚くほど良好であることを示す。
この単純なベースラインであるFreezeDは、非条件GANと条件GANの両方で使用されている従来の技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-02-25T15:30:17Z) - Real or Not Real, that is the Question [165.82386565136107]
我々は,現実性をランダム変数として扱うことにより,GANを新たな視点に一般化する。
このフレームワークはRealnessGANと呼ばれ、判別器は実数の尺度として分布を出力する。
これにより、基本的なDCGANアーキテクチャは、スクラッチからトレーニングされた1024*1024解像度でリアルな画像を生成することができる。
論文 参考訳(メタデータ) (2020-02-12T18:41:55Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。