論文の概要: Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation
- arxiv url: http://arxiv.org/abs/2101.00990v1
- Date: Mon, 4 Jan 2021 14:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 05:23:42.850352
- Title: Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation
- Title(参考訳): GANの誘導:条件付き画像生成のための条件付き事前訓練GANの制御方法
- Authors: Manel Mateos, Alejandro Gonz\'alez, Xavier Sevillano
- Abstract要約: 本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
- 参考スコア(独自算出の注目度): 69.10717733870575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) are an arrange of two neural networks
-- the generator and the discriminator -- that are jointly trained to generate
artificial data, such as images, from random inputs. The quality of these
generated images has recently reached such levels that can often lead both
machines and humans into mistaking fake for real examples. However, the process
performed by the generator of the GAN has some limitations when we want to
condition the network to generate images from subcategories of a specific
class. Some recent approaches tackle this \textit{conditional generation} by
introducing extra information prior to the training process, such as image
semantic segmentation or textual descriptions. While successful, these
techniques still require defining beforehand the desired subcategories and
collecting large labeled image datasets representing them to train the GAN from
scratch. In this paper we present a novel and alternative method for guiding
generic non-conditional GANs to behave as conditional GANs. Instead of
re-training the GAN, our approach adds into the mix an encoder network to
generate the high-dimensional random input vectors that are fed to the
generator network of a non-conditional GAN to make it generate images from a
specific subcategory. In our experiments, when compared to training a
conditional GAN from scratch, our guided GAN is able to generate artificial
images of perceived quality comparable to that of non-conditional GANs after
training the encoder on just a few hundreds of images, which substantially
accelerates the process and enables adding new subcategories seamlessly.
- Abstract(参考訳): Generative Adversarial Networks(GAN)は、ランダム入力から画像などの人工データを生成するために共同で訓練された2つのニューラルネットワーク(ジェネレータと識別器)のアレンジである。
これらの生成された画像の品質は、最近そのようなレベルに達し、マシンと人間の両方が、実例で偽造を誤認する可能性がある。
しかし、GANの生成元によって実行されるプロセスには、特定のクラスのサブカテゴリから画像を生成するようにネットワークに条件付けしたい場合、いくつかの制限がある。
最近のアプローチでは、画像意味セグメンテーションやテキスト記述など、トレーニングプロセスの前に追加情報を導入することで、この \textit{conditional generation}に対処している。
これらのテクニックは成功しても、望まれるサブカテゴリを事前に定義し、GANをスクラッチからトレーニングするために、それらを表す大きなラベル付きイメージデータセットを収集する必要がある。
本稿では,一般的な非条件付きGANを条件付きGANとして振舞うための,新しい代替手法を提案する。
ganを再トレーニングする代わりに、このアプローチでは、エンコーダネットワークをミックスして、非条件ganのジェネレータネットワークに供給される高次元のランダム入力ベクトルを生成し、特定のサブカテゴリから画像を生成する。
実験では,条件付きGANをスクラッチからトレーニングした場合と比較して,わずか数百の画像でエンコーダを訓練した後,非条件付きGANに匹敵する品質の人工的な画像を生成することができ,処理を大幅に高速化し,新たなサブカテゴリをシームレスに追加することができる。
関連論文リスト
- Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Spider GAN: Leveraging Friendly Neighbors to Accelerate GAN Training [20.03447539784024]
本稿では,画像を入力とするGANの学習手法を提案する。
このプロセスは、密接に関連するデータセットや、ターゲット分布のフレンドリーな近所'を識別することで、効率的に行うことができる。
我々は、スパイダーガンの定式化がより高速な収束をもたらすことを示し、ジェネレータは、一見無関係なデータセットでさえ対応を発見できることを示した。
論文 参考訳(メタデータ) (2023-05-12T17:03:18Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - GIU-GANs: Global Information Utilization for Generative Adversarial
Networks [3.3945834638760948]
本稿では,Involution Generative Adversarial Networks (GIU-GANs) と呼ばれる新しいGANを提案する。
GIU-GANは、Squeeze-and-Excitation Networks (SENet)とInvolutionを統合したGlobal Information utilization (GIU)モジュールと呼ばれる新しいモジュールを利用している。
バッチ正規化(BN)は、ジェネレータがサンプリングしたノイズ間の表現差を必然的に無視し、生成した画質を劣化させる。
論文 参考訳(メタデータ) (2022-01-25T17:17:15Z) - Investigating the Potential of Auxiliary-Classifier GANs for Image
Classification in Low Data Regimes [12.128005423388226]
本稿では、画像分類のための「ワンストップショップ」アーキテクチャとして、補助分類型GAN(AC-GAN)の可能性を検討する。
AC-GANは画像分類において有望であり、標準CNNとの競合性能を達成する。
論文 参考訳(メタデータ) (2022-01-22T19:33:16Z) - Inducing Optimal Attribute Representations for Conditional GANs [61.24506213440997]
条件付きGANは、あるカテゴリから別のカテゴリへの画像の変換に広く使用されている。
既存の条件付きGANは、ターゲットドメインラベル情報を0と1の形式でハードコードされたカテゴリベクトルとして符号化する。
本稿では,グラフ畳み込みネットワークを用いた新しいエンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T20:24:07Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。