論文の概要: Your GAN is Secretly an Energy-based Model and You Should use
Discriminator Driven Latent Sampling
- arxiv url: http://arxiv.org/abs/2003.06060v3
- Date: Wed, 7 Jul 2021 17:57:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:09:56.930594
- Title: Your GAN is Secretly an Energy-based Model and You Should use
Discriminator Driven Latent Sampling
- Title(参考訳): GANは秘かにエネルギーベースのモデルで、識別器駆動の潜時サンプリングを使うべきだ
- Authors: Tong Che, Ruixiang Zhang, Jascha Sohl-Dickstein, Hugo Larochelle, Liam
Paull, Yuan Cao, Yoshua Bengio
- Abstract要約: 本研究では,潜時空間におけるサンプリングは,潜時空間の前対数密度と判別器出力スコアの和によって誘導されるエネルギーベースモデルに従って,潜時空間におけるサンプリングを行うことによって達成できることを示す。
判別器駆動潜時サンプリング(DDLS)は,高次元画素空間で動作する従来の手法と比較して,高効率であることを示す。
- 参考スコア(独自算出の注目度): 106.68533003806276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that the sum of the implicit generator log-density $\log p_g$ of a
GAN with the logit score of the discriminator defines an energy function which
yields the true data density when the generator is imperfect but the
discriminator is optimal, thus making it possible to improve on the typical
generator (with implicit density $p_g$). To make that practical, we show that
sampling from this modified density can be achieved by sampling in latent space
according to an energy-based model induced by the sum of the latent prior
log-density and the discriminator output score. This can be achieved by running
a Langevin MCMC in latent space and then applying the generator function, which
we call Discriminator Driven Latent Sampling~(DDLS). We show that DDLS is
highly efficient compared to previous methods which work in the
high-dimensional pixel space and can be applied to improve on previously
trained GANs of many types. We evaluate DDLS on both synthetic and real-world
datasets qualitatively and quantitatively. On CIFAR-10, DDLS substantially
improves the Inception Score of an off-the-shelf pre-trained
SN-GAN~\citep{sngan} from $8.22$ to $9.09$ which is even comparable to the
class-conditional BigGAN~\citep{biggan} model. This achieves a new
state-of-the-art in unconditional image synthesis setting without introducing
extra parameters or additional training.
- Abstract(参考訳): 判別器の対数スコアを持つGANの暗黙発生器対数密度$\log p_g$の和は、生成器が不完全であるが判別器が最適であるときに真のデータ密度をもたらすエネルギー関数を定義することにより、典型的な生成器(暗黙密度$p_g$)の改善を可能にする。
そこで本研究では,この改良された密度からのサンプリングは,潜在先行ログ密度と判別器出力スコアの和によって誘導されるエネルギーベースモデルに従って潜在空間でサンプリングすることで実現できることを示す。
これは、Langevin MCMCを潜時空間で実行し、次にジェネレータ関数を適用して、Driminator Driven Latent Smpling~(DDLS)と呼ぶことで実現できる。
DDLSは高次元の画素空間で動作する従来の手法と比較して高効率であり,多くの種類のGANに対して適用可能であることを示す。
合成データと実世界のデータの両方においてddlを質的かつ定量的に評価する。
CIFAR-10 では、DDLS は既訓練の SN-GAN~\citep{sngan} のインセプションスコアを 8.22$ から 9.09$ に大幅に改善し、これはクラス条件の BigGAN~\citep{biggan} モデルに匹敵する。
これにより、余分なパラメータや追加のトレーニングを導入することなく、非条件の画像合成設定における新しい最先端を実現する。
関連論文リスト
- Adversarial Likelihood Estimation With One-Way Flows [44.684952377918904]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成することができるが、サンプル周辺の確率密度を見積もることはできない。
提案手法は, より高速に収束し, 類似したアーキテクチャでGANに匹敵するサンプル品質を生成し, 一般的に使用されるデータセットの過度な適合を回避し, トレーニングデータのスムーズな低次元潜在表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T10:26:29Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - GANs Settle Scores! [16.317645727944466]
本稿では,変分的手法による発電機最適化を統一的に解析する手法を提案する。
$f$-divergence-minimizing GANsにおいて、最適生成器はその出力分布のスコアとデータ分布のスコアとを一致させるものであることを示す。
本稿では,スコアとフローマッチングに基づく$f$-GAN と IPM-GAN の新たな代替案を提案する。
論文 参考訳(メタデータ) (2023-06-02T16:24:07Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Combating Mode Collapse in GANs via Manifold Entropy Estimation [70.06639443446545]
Generative Adversarial Networks (GAN) は、様々なタスクやアプリケーションにおいて魅力的な結果を示している。
GANのモード崩壊問題に対処するための新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-08-25T12:33:31Z) - Sampling-Decomposable Generative Adversarial Recommender [84.05894139540048]
サンプル分解可能な生成逆数レコメンダ(SD-GAR)を提案する。
本フレームワークでは, 自己正規化重要度サンプリングにより, 生成元と最適値とのばらつきを補償する。
提案アルゴリズムを5つの実世界のレコメンデーションデータセットを用いて広範囲に評価する。
論文 参考訳(メタデータ) (2020-11-02T13:19:10Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。