論文の概要: Approximating Probability Distributions by using Wasserstein Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2103.10060v4
- Date: Fri, 30 Jun 2023 03:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 16:20:37.043685
- Title: Approximating Probability Distributions by using Wasserstein Generative
Adversarial Networks
- Title(参考訳): Wasserstein生成逆数ネットワークによる確率分布の近似
- Authors: Yihang Gao, Michael K. Ng, Mingjie Zhou
- Abstract要約: ワッサースタイン生成敵ネットワーク(WGAN)とGroupSortニューラルネットワークを判別器として検討した。
対象分布に対する近似の誤差境界は、生成器と識別器の幅と深さ(容量)に依存する。
- 参考スコア(独自算出の注目度): 16.005358327268194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Studied here are Wasserstein generative adversarial networks (WGANs) with
GroupSort neural networks as their discriminators. It is shown that the error
bound of the approximation for the target distribution depends on the width and
depth (capacity) of the generators and discriminators and the number of samples
in training. A quantified generalization bound is established for the
Wasserstein distance between the generated and target distributions. According
to the theoretical results, WGANs have a higher requirement for the capacity of
discriminators than that of generators, which is consistent with some existing
results. More importantly, the results with overly deep and wide
(high-capacity) generators may be worse than those with low-capacity generators
if discriminators are insufficiently strong. Numerical results obtained using
Swiss roll and MNIST datasets confirm the theoretical results.
- Abstract(参考訳): ここで研究されているのは、GroupSortニューラルネットワークを識別するWasserstein生成敵ネットワーク(WGAN)である。
対象分布に対する近似の誤差境界は, 生成器と判別器の幅と深さ(容量)と, 訓練中のサンプル数に依存することが示された。
生成した分布と対象分布の間のワッサーシュタイン距離に対して量子化された一般化境界を確立する。
理論的な結果によると、WGANはジェネレータよりも識別器の容量の要求が高いが、これは既存の結果と一致している。
さらに重要なことに、過度に深い(高容量)ジェネレータによる結果が、判別器が不十分に強い場合、低容量ジェネレータを持つ結果よりも悪化する可能性がある。
スイスロールとMNISTデータセットを用いて得られた数値結果から理論的結果が確認された。
関連論文リスト
- Adversarial Likelihood Estimation With One-Way Flows [44.684952377918904]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成することができるが、サンプル周辺の確率密度を見積もることはできない。
提案手法は, より高速に収束し, 類似したアーキテクチャでGANに匹敵するサンプル品質を生成し, 一般的に使用されるデータセットの過度な適合を回避し, トレーニングデータのスムーズな低次元潜在表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T10:26:29Z) - GANs Settle Scores! [16.317645727944466]
本稿では,変分的手法による発電機最適化を統一的に解析する手法を提案する。
$f$-divergence-minimizing GANsにおいて、最適生成器はその出力分布のスコアとデータ分布のスコアとを一致させるものであることを示す。
本稿では,スコアとフローマッチングに基づく$f$-GAN と IPM-GAN の新たな代替案を提案する。
論文 参考訳(メタデータ) (2023-06-02T16:24:07Z) - On some theoretical limitations of Generative Adversarial Networks [77.34726150561087]
GANが任意の確率分布を生成できるという一般的な仮定である。
GANが重み付き分布を生成できないことを示すExtreme Value Theoryに基づく新しい結果を提供する。
論文 参考訳(メタデータ) (2021-10-21T06:10:38Z) - Wasserstein Generative Adversarial Uncertainty Quantification in
Physics-Informed Neural Networks [19.15477953428763]
Wasserstein Generative Adversarial Networks (WGAN) は偏微分方程式の解の不確かさを学習するために設計された。
物理インフォームドWGANは、ジェネレータよりも識別器の容量の要求が高いことを示す。
論文 参考訳(メタデータ) (2021-08-30T08:18:58Z) - An error analysis of generative adversarial networks for learning
distributions [11.842861158282265]
GAN(Generative Adversarial Network)は、有限サンプルから確率分布を学習する。
GANは、低次元構造を持つデータ分布を適応的に学習したり、H"古い密度を持つことができる。
本分析は,推定誤差をジェネレータと判別器の近似誤差と統計的誤差に分解する新しいオラクル不等式に基づく。
論文 参考訳(メタデータ) (2021-05-27T08:55:19Z) - Sampling-Decomposable Generative Adversarial Recommender [84.05894139540048]
サンプル分解可能な生成逆数レコメンダ(SD-GAR)を提案する。
本フレームワークでは, 自己正規化重要度サンプリングにより, 生成元と最適値とのばらつきを補償する。
提案アルゴリズムを5つの実世界のレコメンデーションデータセットを用いて広範囲に評価する。
論文 参考訳(メタデータ) (2020-11-02T13:19:10Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - Your GAN is Secretly an Energy-based Model and You Should use
Discriminator Driven Latent Sampling [106.68533003806276]
本研究では,潜時空間におけるサンプリングは,潜時空間の前対数密度と判別器出力スコアの和によって誘導されるエネルギーベースモデルに従って,潜時空間におけるサンプリングを行うことによって達成できることを示す。
判別器駆動潜時サンプリング(DDLS)は,高次元画素空間で動作する従来の手法と比較して,高効率であることを示す。
論文 参考訳(メタデータ) (2020-03-12T23:33:50Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。