論文の概要: Some Theoretical Insights into Wasserstein GANs
- arxiv url: http://arxiv.org/abs/2006.02682v2
- Date: Fri, 18 Jun 2021 07:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 09:14:38.642014
- Title: Some Theoretical Insights into Wasserstein GANs
- Title(参考訳): Wasserstein GAN に関する理論的考察
- Authors: G\'erard Biau (LPSM (UMR\_8001)), Maxime Sangnier (LPSM (UMR\_8001)),
Ugo Tanielian (LPSM (UMR\_8001))
- Abstract要約: 我々は、ワッサーシュタイン GANs (WGANs) の性質に関する理論的進歩を提案する。
ニューラルネットワークによってパラメータ化される積分確率メトリクスの文脈で、WGANのアーキテクチャを適切に定義する。
統計的に駆動されたアプローチでは、サンプルサイズが無限大になる傾向にある経験的WGANの収束について研究する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have been successful in producing
outstanding results in areas as diverse as image, video, and text generation.
Building on these successes, a large number of empirical studies have validated
the benefits of the cousin approach called Wasserstein GANs (WGANs), which
brings stabilization in the training process. In the present paper, we add a
new stone to the edifice by proposing some theoretical advances in the
properties of WGANs. First, we properly define the architecture of WGANs in the
context of integral probability metrics parameterized by neural networks and
highlight some of their basic mathematical features. We stress in particular
interesting optimization properties arising from the use of a parametric
1-Lipschitz discriminator. Then, in a statistically-driven approach, we study
the convergence of empirical WGANs as the sample size tends to infinity, and
clarify the adversarial effects of the generator and the discriminator by
underlining some trade-off properties. These features are finally illustrated
with experiments using both synthetic and real-world datasets.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、画像、ビデオ、テキスト生成など多様な分野で、優れた結果を生み出すことに成功した。
これらの成功に基づいて、数多くの実証研究が、トレーニングプロセスに安定化をもたらすwasserstein gans(wgans)と呼ばれるいとこのアプローチの利点を検証している。
本稿では,wgansの特性の理論的進歩を提案することにより,新たな石を浮き彫りに加える。
まず、ニューラルネットワークによってパラメータ化された積分確率メトリクスの文脈でWGANのアーキテクチャを適切に定義し、それらの基本的な数学的特徴をいくつか強調する。
パラメトリック1-Lipschitz判別器の使用により,特に興味深い最適化特性が強調される。
そこで, 統計的手法を用いて, サンプルサイズが無限大になる傾向にある経験的WGANの収束について検討し, いくつかのトレードオフ特性を基盤として, 発電機と判別器の対角効果を明らかにする。
これらの特徴は、最終的に合成データセットと実世界のデータセットの両方を用いた実験で示される。
関連論文リスト
- Optimal 1-Wasserstein Distance for WGANs [2.1174215880331775]
有限標本とレジームの両方において、WGAN(Wasserstein GANs)を徹底的に解析する。
半離散状態における最適輸送理論の新たな結果を導出する。
論文 参考訳(メタデータ) (2022-01-08T13:04:03Z) - A Neural Tangent Kernel Perspective of GANs [0.0]
GAN(Generative Adversarial Networks)の理論解析は、任意に大きな差別者の族を仮定する。
我々は,この分析の枠組みがあまりに単純すぎて,GANトレーニングを適切に分析できないことを示した。
我々は、無限幅ニューラルネットワークの理論を利用して、幅広い敵の損失に対するニューラルディミネータートレーニングをモデル化する。
論文 参考訳(メタデータ) (2021-06-10T07:46:02Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Generalization Properties of Optimal Transport GANs with Latent
Distribution Learning [52.25145141639159]
本研究では,潜伏分布とプッシュフォワードマップの複雑さの相互作用が性能に与える影響について検討する。
我々の分析に感銘を受けて、我々はGANパラダイム内での潜伏分布とプッシュフォワードマップの学習を提唱した。
論文 参考訳(メタデータ) (2020-07-29T07:31:33Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。