論文の概要: Inducing Optimal Attribute Representations for Conditional GANs
- arxiv url: http://arxiv.org/abs/2003.06472v2
- Date: Tue, 8 Sep 2020 13:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:58:46.473759
- Title: Inducing Optimal Attribute Representations for Conditional GANs
- Title(参考訳): 条件付きganの最適属性表現の誘導
- Authors: Binod Bhattarai and Tae-Kyun Kim
- Abstract要約: 条件付きGANは、あるカテゴリから別のカテゴリへの画像の変換に広く使用されている。
既存の条件付きGANは、ターゲットドメインラベル情報を0と1の形式でハードコードされたカテゴリベクトルとして符号化する。
本稿では,グラフ畳み込みネットワークを用いた新しいエンドツーエンド学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 61.24506213440997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional GANs are widely used in translating an image from one category to
another. Meaningful conditions to GANs provide greater flexibility and control
over the nature of the target domain synthetic data. Existing conditional GANs
commonly encode target domain label information as hard-coded categorical
vectors in the form of 0s and 1s. The major drawbacks of such representations
are inability to encode the high-order semantic information of target
categories and their relative dependencies. We propose a novel end-to-end
learning framework with Graph Convolutional Networks to learn the attribute
representations to condition on the generator. The GAN losses, i.e. the
discriminator and attribute classification losses, are fed back to the Graph
resulting in the synthetic images that are more natural and clearer in
attributes. Moreover, prior-arts are given priorities to condition on the
generator side, not on the discriminator side of GANs. We apply the conditions
to the discriminator side as well via multi-task learning. We enhanced the four
state-of-the art cGANs architectures: Stargan, Stargan-JNT, AttGAN and STGAN.
Our extensive qualitative and quantitative evaluations on challenging face
attributes manipulation data set, CelebA, LFWA, and RaFD, show that the cGANs
enhanced by our methods outperform by a large margin, compared to their
counter-parts and other conditioning methods, in terms of both target
attributes recognition rates and quality measures such as PSNR and SSIM.
- Abstract(参考訳): 条件付きGANは、あるカテゴリから別のカテゴリへの画像の変換に広く使用されている。
GANに対する意味のある条件は、ターゲット領域の合成データの性質をより柔軟かつ制御できる。
既存の条件付きGANは、ターゲットドメインラベル情報を0と1の形式でハードコードされたカテゴリベクトルとして符号化する。
このような表現の主な欠点は、対象カテゴリの高次意味情報とその相対的な依存関係をエンコードできないことである。
本稿では,グラフ畳み込みネットワークを用いた新しいエンドツーエンド学習フレームワークを提案する。
ganの損失(すなわち判別器と属性分類の損失)はグラフに返され、結果として合成画像は属性においてより自然で明確になる。
さらに、先行技術は、GANの差別化側ではなく、ジェネレータ側の条件に優先される。
我々は,マルチタスク学習を通じて,この条件を判別者側に適用する。
我々は4つの最先端のcGANアーキテクチャ(Stargan, Stargan-JNT, AttGAN, STGAN)を拡張した。
顔属性操作データセット(CelebA,LFWA,RaFD)の定性的・定量的評価を行ったところ,PSNRやSSIMなどの目標属性認識率と品質指標の両面で,我々の手法により強化されたcGANは,カウンター部や他の条件付手法と比較して大きなマージンで優れていた。
関連論文リスト
- Generative adversarial networks for data-scarce spectral applications [0.0]
合成スペクトルデータ生成分野におけるGANの応用について報告する。
CWGANは,低データ方式の性能向上を図り,サロゲートモデルとして機能することを示す。
論文 参考訳(メタデータ) (2023-07-14T16:27:24Z) - Cyclically Disentangled Feature Translation for Face Anti-spoofing [61.70377630461084]
循環不整合特徴変換ネットワーク(CDFTN)と呼ばれる新しい領域適応手法を提案する。
CDFTNは、(1)ソースドメイン不変の生長特徴と2)ドメイン固有のコンテンツ特徴とを持つ擬似ラベル付きサンプルを生成する。
ソースドメインラベルの監督の下で、合成擬似ラベル付き画像に基づいてロバスト分類器を訓練する。
論文 参考訳(メタデータ) (2022-12-07T14:12:34Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - Are conditional GANs explicitly conditional? [0.0]
本稿では,条件付きジェネレーティブ・アドバイザリ・ネットワーク(cGAN)に対する2つのコントリビューションを提案する。
最初の主な貢献は、cGANの分析であり、それらが明示的に条件付きでないことを示すものである。
第2のコントリビューションは、アコントラリオと呼ばれる新しい手法であり、敵アーキテクチャの両部分の条件性を明示的にモデル化する。
論文 参考訳(メタデータ) (2021-06-28T22:49:27Z) - Label Geometry Aware Discriminator for Conditional Generative Networks [40.89719383597279]
条件付きGenerative Adversarial Networks(GAN)は、目的のターゲットクラスで高画質の画像を生成することができます。
これらの合成画像は、画像分類などの下流監督タスクを改善するために必ずしも役に立たない。
論文 参考訳(メタデータ) (2021-05-12T08:17:25Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Self-labeled Conditional GANs [2.9189409618561966]
本稿では,データからラベルを自動的に取得する条件付きGANトレーニングのための,新しい,完全に教師なしのフレームワークを提案する。
我々は、クラスタリングネットワークを標準的な条件付きGANフレームワークに組み込み、差別化と対戦する。
論文 参考訳(メタデータ) (2020-12-03T18:46:46Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。