論文の概要: Pareto GAN: Extending the Representational Power of GANs to Heavy-Tailed
Distributions
- arxiv url: http://arxiv.org/abs/2101.09113v1
- Date: Fri, 22 Jan 2021 14:06:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 17:21:19.461514
- Title: Pareto GAN: Extending the Representational Power of GANs to Heavy-Tailed
Distributions
- Title(参考訳): Pareto GAN:GANの表現力を重層分布に拡張する
- Authors: Todd Huster, Jeremy E.J. Cohen, Zinan Lin, Kevin Chan, Charles
Kamhoua, Nandi Leslie, Cho-Yu Jason Chiang, Vyas Sekar
- Abstract要約: 既存のGANアーキテクチャは,重み付き分布の挙動にマッチする作業が不十分であることを示す。
我々は, 極値理論とニューラルネットワークの機能的性質を用いて, 敵対的特徴の挙動に適合する分布を学習する。
- 参考スコア(独自算出の注目度): 6.356866333887868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) are often billed as "universal
distribution learners", but precisely what distributions they can represent and
learn is still an open question. Heavy-tailed distributions are prevalent in
many different domains such as financial risk-assessment, physics, and
epidemiology. We observe that existing GAN architectures do a poor job of
matching the asymptotic behavior of heavy-tailed distributions, a problem that
we show stems from their construction. Additionally, when faced with the
infinite moments and large distances between outlier points that are
characteristic of heavy-tailed distributions, common loss functions produce
unstable or near-zero gradients. We address these problems with the Pareto GAN.
A Pareto GAN leverages extreme value theory and the functional properties of
neural networks to learn a distribution that matches the asymptotic behavior of
the marginal distributions of the features. We identify issues with standard
loss functions and propose the use of alternative metric spaces that enable
stable and efficient learning. Finally, we evaluate our proposed approach on a
variety of heavy-tailed datasets.
- Abstract(参考訳): generative adversarial network (gans) はしばしば "universal distribution learner" と称されるが、正確には彼らが表現し学習できる分布は、まだ未解決の問題である。
重み付き分布は、金融リスク評価、物理学、疫学など、多くの異なる領域で広く見られる。
我々は,既存のGANアーキテクチャが重み付き分布の漸近的挙動と整合性に乏しいことを観察する。
さらに、無限のモーメントと重尾分布の特徴である外接点の間の大きな距離に直面した場合、共通損失関数は不安定あるいは近ゼロ勾配を生成する。
これらの問題をPareto GANで解決する。
パレートganは、極端な値理論とニューラルネットワークの機能的性質を利用して、特徴の限界分布の漸近的挙動に一致する分布を学習する。
標準損失関数の問題を特定し,安定かつ効率的な学習を可能にする代替距離空間を提案する。
最後に,様々な重み付きデータセットに対する提案手法の評価を行った。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Disentanglement of Correlated Factors via Hausdorff Factorized Support [53.23740352226391]
本稿では,因子分布ではなく,因子化支援を助長する緩やかな解離基準,HFS(Hausdorff Factorized Support)基準を提案する。
本研究では,HFSを用いることにより,様々な相関設定やベンチマークにおいて,接地構造因子の絡み合いと回復が一貫して促進されることを示す。
論文 参考訳(メタデータ) (2022-10-13T20:46:42Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Investigating Shifts in GAN Output-Distributions [5.076419064097734]
本稿では,実学習データとGAN生成データの分布の可観測的変化を系統的に調査するためのループ学習手法を提案する。
全体として、これらの手法を組み合わせることで、現在のGANアルゴリズムの自然的制限を爆発的に調査することができる。
論文 参考訳(メタデータ) (2021-12-28T09:16:55Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - An error analysis of generative adversarial networks for learning
distributions [11.842861158282265]
GAN(Generative Adversarial Network)は、有限サンプルから確率分布を学習する。
GANは、低次元構造を持つデータ分布を適応的に学習したり、H"古い密度を持つことができる。
本分析は,推定誤差をジェネレータと判別器の近似誤差と統計的誤差に分解する新しいオラクル不等式に基づく。
論文 参考訳(メタデータ) (2021-05-27T08:55:19Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。