論文の概要: GANs Settle Scores!
- arxiv url: http://arxiv.org/abs/2306.01654v1
- Date: Fri, 2 Jun 2023 16:24:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 14:24:03.598734
- Title: GANs Settle Scores!
- Title(参考訳): ガンズ スコア落ち着け!
- Authors: Siddarth Asokan, Nishanth Shetty, Aadithya Srikanth, Chandra Sekhar
Seelamantula
- Abstract要約: 本稿では,変分的手法による発電機最適化を統一的に解析する手法を提案する。
$f$-divergence-minimizing GANsにおいて、最適生成器はその出力分布のスコアとデータ分布のスコアとを一致させるものであることを示す。
本稿では,スコアとフローマッチングに基づく$f$-GAN と IPM-GAN の新たな代替案を提案する。
- 参考スコア(独自算出の注目度): 16.317645727944466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) comprise a generator, trained to learn
the underlying distribution of the desired data, and a discriminator, trained
to distinguish real samples from those output by the generator. A majority of
GAN literature focuses on understanding the optimality of the discriminator
through integral probability metric (IPM) or divergence based analysis. In this
paper, we propose a unified approach to analyzing the generator optimization
through variational approach. In $f$-divergence-minimizing GANs, we show that
the optimal generator is the one that matches the score of its output
distribution with that of the data distribution, while in IPM GANs, we show
that this optimal generator matches score-like functions, involving the
flow-field of the kernel associated with a chosen IPM constraint space.
Further, the IPM-GAN optimization can be seen as one of smoothed
score-matching, where the scores of the data and the generator distributions
are convolved with the kernel associated with the constraint. The proposed
approach serves to unify score-based training and existing GAN flavors,
leveraging results from normalizing flows, while also providing explanations
for empirical phenomena such as the stability of non-saturating GAN losses.
Based on these results, we propose novel alternatives to $f$-GAN and IPM-GAN
training based on score and flow matching, and discriminator-guided Langevin
sampling.
- Abstract(参考訳): GAN(Generative Adversarial Network)は、所望のデータの基盤となる分布を学習するために訓練されたジェネレータと、ジェネレータによって出力されたデータと実際のサンプルを区別するために訓練された識別器から構成される。
gan文学の大多数は、積分確率計量(ipm)または分岐に基づく分析による判別器の最適性を理解することに焦点を当てている。
本稿では,変分手法による発電機最適化を統一的に解析する手法を提案する。
f$-divergence-minimizing gansでは、最適生成子は出力分布のスコアとデータ分布のスコアを一致させるものであり、ipm gansでは、選択されたipm制約空間に関連するカーネルのフローフィールドを含むスコアのような関数に最適な生成器が一致することを示す。
さらに、ipm-gan最適化は、データとジェネレータ分布のスコアと、その制約に関連するカーネルとが畳み合わされる平滑化スコアマッチングの1つと見なすことができる。
提案手法は、スコアベーストレーニングと既存のGANフレーバーを統一し、フローの正規化の結果を活用するとともに、非飽和GAN損失の安定性などの経験的現象の説明を提供する。
これらの結果に基づき,スコアとフローマッチングに基づく$f$-gan および ipm-gan トレーニングと判別器誘導ランジュバンサンプリングの代替案を提案する。
関連論文リスト
- Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Adversarial Likelihood Estimation With One-Way Flows [44.684952377918904]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成することができるが、サンプル周辺の確率密度を見積もることはできない。
提案手法は, より高速に収束し, 類似したアーキテクチャでGANに匹敵するサンプル品質を生成し, 一般的に使用されるデータセットの過度な適合を回避し, トレーニングデータのスムーズな低次元潜在表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T10:26:29Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - cGANs with Auxiliary Discriminative Classifier [43.78253518292111]
条件付き生成モデルは、データとラベルの基本的な結合分布を学習することを目的としている。
副分類器生成敵ネットワーク (AC-GAN) は広く用いられているが, 生成標本のクラス内多様性の低い問題に悩まされている。
本稿では,AC-GANの問題に対処するため,補助識別器(ADC-GAN)を用いた新しいcGANを提案する。
論文 参考訳(メタデータ) (2021-07-21T13:06:32Z) - Mode Penalty Generative Adversarial Network with adapted Auto-encoder [0.15229257192293197]
本稿では,事前学習した自動エンコーダと組み合わされたモードペナルティGANを提案する。
提案手法をGANに適用することにより, ジェネレータの最適化がより安定し, 実験による収束が早くなることを示す。
論文 参考訳(メタデータ) (2020-11-16T03:39:53Z) - Sampling-Decomposable Generative Adversarial Recommender [84.05894139540048]
サンプル分解可能な生成逆数レコメンダ(SD-GAR)を提案する。
本フレームワークでは, 自己正規化重要度サンプリングにより, 生成元と最適値とのばらつきを補償する。
提案アルゴリズムを5つの実世界のレコメンデーションデータセットを用いて広範囲に評価する。
論文 参考訳(メタデータ) (2020-11-02T13:19:10Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。