論文の概要: Information-theoretic stochastic contrastive conditional GAN:
InfoSCC-GAN
- arxiv url: http://arxiv.org/abs/2112.09653v1
- Date: Fri, 17 Dec 2021 17:56:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 16:41:47.753098
- Title: Information-theoretic stochastic contrastive conditional GAN:
InfoSCC-GAN
- Title(参考訳): 情報理論的確率的コントラスト条件付きGAN:InfoSCC-GAN
- Authors: Vitaliy Kinakh, Mariia Drozdova, Guillaume Qu\'etant, Tobias Golling,
Slava Voloshynovskiy
- Abstract要約: 本稿では,探索可能な潜伏空間を有するコントラスト条件生成対向ネットワーク(Info SCC-GAN)を提案する。
インフォメーションSCC-GANは、入力データと潜時空間表現の間の相互情報の情報理論的定式化に基づいて導出される。
実験により、Info SCC-GANはAFHQとCelebAデータセットの画像生成において、"vanilla" EigenGANよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 6.201770337181472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conditional generation is a subclass of generative problems where the output
of the generation is conditioned by the attribute information. In this paper,
we present a stochastic contrastive conditional generative adversarial network
(InfoSCC-GAN) with an explorable latent space. The InfoSCC-GAN architecture is
based on an unsupervised contrastive encoder built on the InfoNCE paradigm, an
attribute classifier and an EigenGAN generator. We propose a novel training
method, based on generator regularization using external or internal attributes
every $n$-th iteration, using a pre-trained contrastive encoder and a
pre-trained classifier. The proposed InfoSCC-GAN is derived based on an
information-theoretic formulation of mutual information maximization between
input data and latent space representation as well as latent space and
generated data. Thus, we demonstrate a link between the training objective
functions and the above information-theoretic formulation. The experimental
results show that InfoSCC-GAN outperforms the "vanilla" EigenGAN in the image
generation on AFHQ and CelebA datasets. In addition, we investigate the impact
of discriminator architectures and loss functions by performing ablation
studies. Finally, we demonstrate that thanks to the EigenGAN generator, the
proposed framework enjoys a stochastic generation in contrast to vanilla
deterministic GANs yet with the independent training of encoder, classifier,
and generator in contrast to existing frameworks. Code, experimental results,
and demos are available online at https://github.com/vkinakh/InfoSCC-GAN.
- Abstract(参考訳): 条件生成は、属性情報によって生成の出力が条件づけられた生成問題のサブクラスである。
本稿では,探索可能な潜伏空間を有する確率的コントラスト条件生成対向ネットワーク(InfoSCC-GAN)を提案する。
InfoSCC-GANアーキテクチャは、InfoNCEパラダイム、属性分類器、EigenGANジェネレータに基づいて構築された教師なしコントラストエンコーダに基づいている。
本稿では,事前学習したコントラストエンコーダと事前学習した分類器を用いて,外部属性や内部属性を$n$-thの繰り返し毎に使用した新たなトレーニング手法を提案する。
提案するinfoscc-ganは,入力データと潜在空間表現,潜在空間と生成データの相互情報最大化に関する情報理論的定式化に基づいている。
そこで本研究では,学習目標関数と上記の情報理論定式化との関係を示す。
実験の結果,InfoSCC-GANはAFHQおよびCelebAデータセットの画像生成において,"vanilla" EigenGANよりも優れていた。
さらに,判別器アーキテクチャと損失関数の影響をアブレーション研究により検討した。
最後に、EigenGANジェネレータのおかげで、提案フレームワークは、既存のフレームワークとは対照的に、エンコーダ、分類器、ジェネレータの独立したトレーニングでは、バニラ決定的GANに対して確率的生成を享受できることを示した。
コード、実験結果、デモはhttps://github.com/vkinakh/InfoSCC-GAN.comで公開されている。
関連論文リスト
- Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Sequential training of GANs against GAN-classifiers reveals correlated
"knowledge gaps" present among independently trained GAN instances [1.104121146441257]
我々は、繰り返しGAN分類器を訓練し、分類器を「偽」するGANを訓練する。
本稿では, GAN訓練力学, 出力品質, GAN分類器の一般化に対する効果について検討する。
論文 参考訳(メタデータ) (2023-03-27T18:18:15Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - Improving Model Compatibility of Generative Adversarial Networks by
Boundary Calibration [24.28407308818025]
境界キャリブレーションGAN(BCGAN)は、GANのモデル互換性を改善するために提案される。
BCGANはオリジナルのGANのようなリアルなイメージを生成するが、オリジナルのGANよりも優れたモデル互換性を実現する。
論文 参考訳(メタデータ) (2021-11-03T16:08:09Z) - Improving the quality of generative models through Smirnov
transformation [1.3492000366723798]
本稿では,ジェネレータの出力として使用される新しいアクティベーション関数を提案する。
これはスミルノフ確率変換に基づいており、生成されたデータの品質を改善するために特別に設計されている。
論文 参考訳(メタデータ) (2021-10-29T17:01:06Z) - cGANs with Auxiliary Discriminative Classifier [43.78253518292111]
条件付き生成モデルは、データとラベルの基本的な結合分布を学習することを目的としている。
副分類器生成敵ネットワーク (AC-GAN) は広く用いられているが, 生成標本のクラス内多様性の低い問題に悩まされている。
本稿では,AC-GANの問題に対処するため,補助識別器(ADC-GAN)を用いた新しいcGANを提案する。
論文 参考訳(メタデータ) (2021-07-21T13:06:32Z) - Conditional Hybrid GAN for Sequence Generation [56.67961004064029]
本稿では,この問題を解決するための条件付きハイブリッドGAN(C-Hybrid-GAN)を提案する。
我々はGumbel-Softmax法を利用して離散値列の分布を近似する。
提案したC-Hybrid-GANは、文脈条件付き離散値シーケンス生成において既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-18T03:52:55Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Inducing Optimal Attribute Representations for Conditional GANs [61.24506213440997]
条件付きGANは、あるカテゴリから別のカテゴリへの画像の変換に広く使用されている。
既存の条件付きGANは、ターゲットドメインラベル情報を0と1の形式でハードコードされたカテゴリベクトルとして符号化する。
本稿では,グラフ畳み込みネットワークを用いた新しいエンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T20:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。