論文の概要: Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator
- arxiv url: http://arxiv.org/abs/2004.01704v1
- Date: Sun, 5 Apr 2020 01:50:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 11:59:58.365503
- Title: Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator
- Title(参考訳): 判別器のコントラスト発散:判別器のエネルギーを探索する半償却生成モデル
- Authors: Yuxuan Song, Qiwei Ye, Minkai Xu, Tie-Yan Liu
- Abstract要約: GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
- 参考スコア(独自算出の注目度): 85.68825725223873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have shown great promise in modeling
high dimensional data. The learning objective of GANs usually minimizes some
measure discrepancy, \textit{e.g.}, $f$-divergence~($f$-GANs) or Integral
Probability Metric~(Wasserstein GANs). With $f$-divergence as the objective
function, the discriminator essentially estimates the density ratio, and the
estimated ratio proves useful in further improving the sample quality of the
generator. However, how to leverage the information contained in the
discriminator of Wasserstein GANs (WGAN) is less explored. In this paper, we
introduce the Discriminator Contrastive Divergence, which is well motivated by
the property of WGAN's discriminator and the relationship between WGAN and
energy-based model. Compared to standard GANs, where the generator is directly
utilized to obtain new samples, our method proposes a semi-amortized generation
procedure where the samples are produced with the generator's output as an
initial state. Then several steps of Langevin dynamics are conducted using the
gradient of the discriminator. We demonstrate the benefits of significant
improved generation on both synthetic data and several real-world image
generation benchmarks.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
gans の学習の目的は通常、いくつかの測度の不一致、例えば、$f$-divergence~($f$-gans)または積分確率計量~(wasserstein gans)を最小化する。
目的関数として$f$-divergenceを用いると、判別器は基本的に密度比を推定し、推定比はジェネレータのサンプル品質をさらに向上するのに有用である。
しかしながら、WGAN(Wasserstein GANs)の識別器に含まれる情報を活用する方法はあまり検討されていない。
本稿では,WGANの識別器の特性とWGANとエネルギーベースモデルとの関係から,識別器のコントラジジェンス(Contrastive Divergence)について紹介する。
ジェネレータを直接利用して新しいサンプルを得る標準的なGANと比較して,本手法では,ジェネレータの出力を初期状態として生成する半調整生成手法を提案する。
次に、判別器の勾配を用いてランジュバンダイナミクスのいくつかのステップを実行する。
本稿では,合成データと実世界の画像生成ベンチマークの両方において,大幅な改善による利点を示す。
関連論文リスト
- Adversarial Likelihood Estimation With One-Way Flows [44.684952377918904]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成することができるが、サンプル周辺の確率密度を見積もることはできない。
提案手法は, より高速に収束し, 類似したアーキテクチャでGANに匹敵するサンプル品質を生成し, 一般的に使用されるデータセットの過度な適合を回避し, トレーニングデータのスムーズな低次元潜在表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T10:26:29Z) - GANs Settle Scores! [16.317645727944466]
本稿では,変分的手法による発電機最適化を統一的に解析する手法を提案する。
$f$-divergence-minimizing GANsにおいて、最適生成器はその出力分布のスコアとデータ分布のスコアとを一致させるものであることを示す。
本稿では,スコアとフローマッチングに基づく$f$-GAN と IPM-GAN の新たな代替案を提案する。
論文 参考訳(メタデータ) (2023-06-02T16:24:07Z) - Inferential Wasserstein Generative Adversarial Networks [9.859829604054127]
自動エンコーダとWGANを融合する原理的フレームワークである新しい推論ワッサースタインGAN(iWGAN)モデルを導入する。
iWGANはモード崩壊の症状を大幅に緩和し、収束を高速化し、各サンプルの品質チェックの測定を行うことができる。
論文 参考訳(メタデータ) (2021-09-13T00:43:21Z) - cGANs with Auxiliary Discriminative Classifier [43.78253518292111]
条件付き生成モデルは、データとラベルの基本的な結合分布を学習することを目的としている。
副分類器生成敵ネットワーク (AC-GAN) は広く用いられているが, 生成標本のクラス内多様性の低い問題に悩まされている。
本稿では,AC-GANの問題に対処するため,補助識別器(ADC-GAN)を用いた新しいcGANを提案する。
論文 参考訳(メタデータ) (2021-07-21T13:06:32Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - Sampling-Decomposable Generative Adversarial Recommender [84.05894139540048]
サンプル分解可能な生成逆数レコメンダ(SD-GAR)を提案する。
本フレームワークでは, 自己正規化重要度サンプリングにより, 生成元と最適値とのばらつきを補償する。
提案アルゴリズムを5つの実世界のレコメンデーションデータセットを用いて広範囲に評価する。
論文 参考訳(メタデータ) (2020-11-02T13:19:10Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Your GAN is Secretly an Energy-based Model and You Should use
Discriminator Driven Latent Sampling [106.68533003806276]
本研究では,潜時空間におけるサンプリングは,潜時空間の前対数密度と判別器出力スコアの和によって誘導されるエネルギーベースモデルに従って,潜時空間におけるサンプリングを行うことによって達成できることを示す。
判別器駆動潜時サンプリング(DDLS)は,高次元画素空間で動作する従来の手法と比較して,高効率であることを示す。
論文 参考訳(メタデータ) (2020-03-12T23:33:50Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。