論文の概要: Spider GAN: Leveraging Friendly Neighbors to Accelerate GAN Training
- arxiv url: http://arxiv.org/abs/2305.07613v1
- Date: Fri, 12 May 2023 17:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 12:00:05.098051
- Title: Spider GAN: Leveraging Friendly Neighbors to Accelerate GAN Training
- Title(参考訳): spider gan: フレンドリーな隣人を活用したganトレーニングの促進
- Authors: Siddarth Asokan and Chandra Sekhar Seelamantula
- Abstract要約: 本稿では,画像を入力とするGANの学習手法を提案する。
このプロセスは、密接に関連するデータセットや、ターゲット分布のフレンドリーな近所'を識別することで、効率的に行うことができる。
我々は、スパイダーガンの定式化がより高速な収束をもたらすことを示し、ジェネレータは、一見無関係なデータセットでさえ対応を発見できることを示した。
- 参考スコア(独自算出の注目度): 20.03447539784024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training Generative adversarial networks (GANs) stably is a challenging task.
The generator in GANs transform noise vectors, typically Gaussian distributed,
into realistic data such as images. In this paper, we propose a novel approach
for training GANs with images as inputs, but without enforcing any pairwise
constraints. The intuition is that images are more structured than noise, which
the generator can leverage to learn a more robust transformation. The process
can be made efficient by identifying closely related datasets, or a ``friendly
neighborhood'' of the target distribution, inspiring the moniker, Spider GAN.
To define friendly neighborhoods leveraging proximity between datasets, we
propose a new measure called the signed inception distance (SID), inspired by
the polyharmonic kernel. We show that the Spider GAN formulation results in
faster convergence, as the generator can discover correspondence even between
seemingly unrelated datasets, for instance, between Tiny-ImageNet and CelebA
faces. Further, we demonstrate cascading Spider GAN, where the output
distribution from a pre-trained GAN generator is used as the input to the
subsequent network. Effectively, transporting one distribution to another in a
cascaded fashion until the target is learnt -- a new flavor of transfer
learning. We demonstrate the efficacy of the Spider approach on DCGAN,
conditional GAN, PGGAN, StyleGAN2 and StyleGAN3. The proposed approach achieves
state-of-the-art Frechet inception distance (FID) values, with one-fifth of the
training iterations, in comparison to their baseline counterparts on
high-resolution small datasets such as MetFaces, Ukiyo-E Faces and AFHQ-Cats.
- Abstract(参考訳): GAN(Generative Adversarial Network)を安定的に訓練することは難しい課題である。
GANのジェネレータは、通常ガウス分布のノイズベクトルを画像のような現実的なデータに変換する。
本稿では,イメージを入力としてganを訓練する新しい手法を提案する。
直感的には、画像はノイズよりも構造的であり、ジェネレータはより堅牢な変換を学ぶことができる。
このプロセスは、密接な関連するデータセット、あるいはターゲットの分布の‘フレンドリーな近所’を識別することで効率よく行なえる。
データセット間の近接を利用したフレンドリーな近傍を定義するために,多調和核に触発されたsigned inception distance (sid) と呼ばれる新しい手法を提案する。
我々は、例えばTiny-ImageNetとCelebAの顔の間で、一見無関係なデータセットの間でも対応を見出すことができるので、Spider GANの定式化がより高速に収束することを示す。
さらに、事前学習したgan生成器からの出力分布を次のネットワークへの入力として使用するcascading spider ganを実演する。
効果的に、ターゲットが学習されるまでカスケードされた方法で、あるディストリビューションを別のディストリビューションに転送する。
我々は,DCGAN,条件GAN,PGGAN,StyleGAN2およびStyleGAN3に対するスパイダーアプローチの有効性を示した。
提案手法は,metfaces,浮世絵,afhq-catsなどの高分解能小型データセットのベースラインと比較し,トレーニングイテレーションの5分の1で,最先端のフレシェット開始距離(fid)値を達成する。
関連論文リスト
- SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Extracting Semantic Knowledge from GANs with Unsupervised Learning [65.32631025780631]
GAN(Generative Adversarial Networks)は、特徴写像のセマンティクスを線形に分離可能な形でエンコードする。
本稿では,線形分離性を利用してGANの特徴をクラスタリングする新しいクラスタリングアルゴリズムKLiSHを提案する。
KLiSHは、さまざまなオブジェクトのデータセットに基づいてトレーニングされたGANのきめ細かいセマンティクスの抽出に成功している。
論文 参考訳(メタデータ) (2022-11-30T03:18:16Z) - Distilling Representations from GAN Generator via Squeeze and Span [55.76208869775715]
本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
論文 参考訳(メタデータ) (2022-11-06T01:10:28Z) - Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training [45.70113212633225]
条件付き生成逆数ネットワーク(cGAN)は、クラス情報をGANに組み込んで現実的な画像を生成する。
最も一般的なcGANの1つは、ソフトマックスクロスエントロピー損失(ACGAN)を持つ補助分類器GANである。
ACGANはまた、多様性の欠如により容易に分類できるサンプルを生成する傾向がある。
論文 参考訳(メタデータ) (2021-11-01T17:51:33Z) - Towards Discovery and Attribution of Open-world GAN Generated Images [18.10496076534083]
本稿では,未確認のGANから生成した画像の反復的探索アルゴリズムを提案する。
アルゴリズムはネットワークトレーニング,分散検出,クラスタリング,マージ,洗練といった複数のコンポーネントで構成されている。
私たちの実験は、新しいganを発見し、オープンワールドのセットアップで使用できるアプローチの有効性を示しています。
論文 参考訳(メタデータ) (2021-05-10T18:00:13Z) - MineGAN++: Mining Generative Models for Efficient Knowledge Transfer to
Limited Data Domains [77.46963293257912]
本稿では,特定の対象領域に最も有益である知識をマイニングした生成モデルのための新しい知識伝達手法を提案する。
これは、各事前訓練されたGANの生成分布のどの部分が対象領域に最も近いサンプルを出力しているかを識別するマイカネットワークを用いて行われる。
提案手法はMineGANと呼ばれ,ターゲット画像が少ない領域に効果的に知識を伝達し,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-28T13:10:56Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Lessons Learned from the Training of GANs on Artificial Datasets [0.0]
GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2020-07-13T14:51:02Z) - Towards GANs' Approximation Ability [8.471366736328811]
本稿ではまず,GANの近似特性を理論的に解析する。
GANの入力潜在変数を持つジェネレータは、ポテンシャルデータ分布を普遍的に近似できることを示す。
実際のデータセットでは、SDGを使用する4つのGANは、モデルアーキテクチャが小さい場合、対応する従来のGANよりも優れる。
論文 参考訳(メタデータ) (2020-04-10T02:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。