論文の概要: Approximation for Probability Distributions by Wasserstein GAN
- arxiv url: http://arxiv.org/abs/2103.10060v1
- Date: Thu, 18 Mar 2021 07:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 14:09:51.765195
- Title: Approximation for Probability Distributions by Wasserstein GAN
- Title(参考訳): Wasserstein GANによる確率分布の近似
- Authors: Yihang Gao, Michael K. Ng
- Abstract要約: We show that the approximation for distributions by Wasserstein GAN are on both width/deepth (capacity) of generators and discriminator。
我々は, 1-Lipschitz関数に近似するために, GroupSort ニューラルネットワーク arXiv:1811.05381v2[cs.LG] をモデルに採用する。
- 参考スコア(独自算出の注目度): 19.15477953428763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we show that the approximation for distributions by
Wasserstein GAN depends on both the width/depth (capacity) of generators and
discriminators, as well as the number of samples in training. A quantified
generalization bound is developed for Wasserstein distance between the
generated distribution and the target distribution. It implies that with
sufficient training samples, for generators and discriminators with proper
number of width and depth, the learned Wasserstein GAN can approximate
distributions well. We discover that discriminators suffer a lot from the curse
of dimensionality, meaning that GANs have higher requirement for the capacity
of discriminators than generators, which is consistent with the theory in
arXiv:1703.00573v5 [cs.LG]. More importantly, overly deep (high capacity)
generators may cause worse results (after training) than low capacity
generators if discriminators are not strong enough. Different from Wasserstein
GAN in arXiv:1701.07875v3 [stat.ML], we adopt GroupSort neural networks
arXiv:1811.05381v2 [cs.LG] in the model for their better approximation to
1-Lipschitz functions. Compared to some existing generalization (convergence)
analysis of GANs, we expect our work are more applicable.
- Abstract(参考訳): 本稿では,wasserstein ganによる分布の近似が,生成器と判別器の幅・深さ(容量)と,訓練中のサンプル数の両方に依存することを示す。
生成した分布と対象分布の間のワッサーシュタイン距離の量子化一般化境界を開発する。
十分なトレーニングサンプルがあれば、適切な幅と深さの数のジェネレータと判別器に対して、学習されたwasserstein ganは分布をよく近似できる。
我々は、差別者が次元の呪いに悩まされていることを発見した。つまり、GANはジェネレータよりも識別器の能力の要求が高いということであり、arXiv:1703.00573v5[cs.LG]の理論と一致する。
さらに重要なことに、過度に深い(高容量)ジェネレータは、判別器が十分に強くない場合、低容量ジェネレータよりも(訓練後)悪い結果を引き起こす可能性がある。
arXiv:1701.07875v3[stat.ML]のWasserstein GANと異なり、我々は1-Lipschitz関数に対するより良い近似のためにモデルにGroupSortニューラルネットワークarXiv:1811.05381v2[cs.LG]を採用する。
既存のGANの一般化(収束)解析と比較して、我々の研究はより適用可能であると期待している。
関連論文リスト
- Adversarial Likelihood Estimation With One-Way Flows [44.684952377918904]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成することができるが、サンプル周辺の確率密度を見積もることはできない。
提案手法は, より高速に収束し, 類似したアーキテクチャでGANに匹敵するサンプル品質を生成し, 一般的に使用されるデータセットの過度な適合を回避し, トレーニングデータのスムーズな低次元潜在表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T10:26:29Z) - GANs Settle Scores! [16.317645727944466]
本稿では,変分的手法による発電機最適化を統一的に解析する手法を提案する。
$f$-divergence-minimizing GANsにおいて、最適生成器はその出力分布のスコアとデータ分布のスコアとを一致させるものであることを示す。
本稿では,スコアとフローマッチングに基づく$f$-GAN と IPM-GAN の新たな代替案を提案する。
論文 参考訳(メタデータ) (2023-06-02T16:24:07Z) - On some theoretical limitations of Generative Adversarial Networks [77.34726150561087]
GANが任意の確率分布を生成できるという一般的な仮定である。
GANが重み付き分布を生成できないことを示すExtreme Value Theoryに基づく新しい結果を提供する。
論文 参考訳(メタデータ) (2021-10-21T06:10:38Z) - Wasserstein Generative Adversarial Uncertainty Quantification in
Physics-Informed Neural Networks [19.15477953428763]
Wasserstein Generative Adversarial Networks (WGAN) は偏微分方程式の解の不確かさを学習するために設計された。
物理インフォームドWGANは、ジェネレータよりも識別器の容量の要求が高いことを示す。
論文 参考訳(メタデータ) (2021-08-30T08:18:58Z) - An error analysis of generative adversarial networks for learning
distributions [11.842861158282265]
GAN(Generative Adversarial Network)は、有限サンプルから確率分布を学習する。
GANは、低次元構造を持つデータ分布を適応的に学習したり、H"古い密度を持つことができる。
本分析は,推定誤差をジェネレータと判別器の近似誤差と統計的誤差に分解する新しいオラクル不等式に基づく。
論文 参考訳(メタデータ) (2021-05-27T08:55:19Z) - Sampling-Decomposable Generative Adversarial Recommender [84.05894139540048]
サンプル分解可能な生成逆数レコメンダ(SD-GAR)を提案する。
本フレームワークでは, 自己正規化重要度サンプリングにより, 生成元と最適値とのばらつきを補償する。
提案アルゴリズムを5つの実世界のレコメンデーションデータセットを用いて広範囲に評価する。
論文 参考訳(メタデータ) (2020-11-02T13:19:10Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - Your GAN is Secretly an Energy-based Model and You Should use
Discriminator Driven Latent Sampling [106.68533003806276]
本研究では,潜時空間におけるサンプリングは,潜時空間の前対数密度と判別器出力スコアの和によって誘導されるエネルギーベースモデルに従って,潜時空間におけるサンプリングを行うことによって達成できることを示す。
判別器駆動潜時サンプリング(DDLS)は,高次元画素空間で動作する従来の手法と比較して,高効率であることを示す。
論文 参考訳(メタデータ) (2020-03-12T23:33:50Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。