論文の概要: Pareto GAN: Extending the Representational Power of GANs to Heavy-Tailed
Distributions
- arxiv url: http://arxiv.org/abs/2101.09113v1
- Date: Fri, 22 Jan 2021 14:06:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 17:21:19.461514
- Title: Pareto GAN: Extending the Representational Power of GANs to Heavy-Tailed
Distributions
- Title(参考訳): Pareto GAN:GANの表現力を重層分布に拡張する
- Authors: Todd Huster, Jeremy E.J. Cohen, Zinan Lin, Kevin Chan, Charles
Kamhoua, Nandi Leslie, Cho-Yu Jason Chiang, Vyas Sekar
- Abstract要約: 既存のGANアーキテクチャは,重み付き分布の挙動にマッチする作業が不十分であることを示す。
我々は, 極値理論とニューラルネットワークの機能的性質を用いて, 敵対的特徴の挙動に適合する分布を学習する。
- 参考スコア(独自算出の注目度): 6.356866333887868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) are often billed as "universal
distribution learners", but precisely what distributions they can represent and
learn is still an open question. Heavy-tailed distributions are prevalent in
many different domains such as financial risk-assessment, physics, and
epidemiology. We observe that existing GAN architectures do a poor job of
matching the asymptotic behavior of heavy-tailed distributions, a problem that
we show stems from their construction. Additionally, when faced with the
infinite moments and large distances between outlier points that are
characteristic of heavy-tailed distributions, common loss functions produce
unstable or near-zero gradients. We address these problems with the Pareto GAN.
A Pareto GAN leverages extreme value theory and the functional properties of
neural networks to learn a distribution that matches the asymptotic behavior of
the marginal distributions of the features. We identify issues with standard
loss functions and propose the use of alternative metric spaces that enable
stable and efficient learning. Finally, we evaluate our proposed approach on a
variety of heavy-tailed datasets.
- Abstract(参考訳): generative adversarial network (gans) はしばしば "universal distribution learner" と称されるが、正確には彼らが表現し学習できる分布は、まだ未解決の問題である。
重み付き分布は、金融リスク評価、物理学、疫学など、多くの異なる領域で広く見られる。
我々は,既存のGANアーキテクチャが重み付き分布の漸近的挙動と整合性に乏しいことを観察する。
さらに、無限のモーメントと重尾分布の特徴である外接点の間の大きな距離に直面した場合、共通損失関数は不安定あるいは近ゼロ勾配を生成する。
これらの問題をPareto GANで解決する。
パレートganは、極端な値理論とニューラルネットワークの機能的性質を利用して、特徴の限界分布の漸近的挙動に一致する分布を学習する。
標準損失関数の問題を特定し,安定かつ効率的な学習を可能にする代替距離空間を提案する。
最後に,様々な重み付きデータセットに対する提案手法の評価を行った。
関連論文リスト
- Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Investigating Shifts in GAN Output-Distributions [5.076419064097734]
本稿では,実学習データとGAN生成データの分布の可観測的変化を系統的に調査するためのループ学習手法を提案する。
全体として、これらの手法を組み合わせることで、現在のGANアルゴリズムの自然的制限を爆発的に調査することができる。
論文 参考訳(メタデータ) (2021-12-28T09:16:55Z) - GFlowNet Foundations [63.995627378690635]
Generative Flow Networks (GFlowNets) は、多様な候補をアクティブな学習コンテキストでサンプリングする方法として導入された。
GFlowNetのさらなる理論的性質について述べる。
論文 参考訳(メタデータ) (2021-11-17T17:59:54Z) - Boundary of Distribution Support Generator (BDSG): Sample Generation on
the Boundary [0.0]
最近開発されたInvertible Residual Network (IResNet) とResidual Flow (ResFlow) を密度推定に利用した。
これらのモデルはまだ異常検出に使われていない。
論文 参考訳(メタデータ) (2021-07-21T09:00:32Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - An error analysis of generative adversarial networks for learning
distributions [11.842861158282265]
GAN(Generative Adversarial Network)は、有限サンプルから確率分布を学習する。
GANは、低次元構造を持つデータ分布を適応的に学習したり、H"古い密度を持つことができる。
本分析は,推定誤差をジェネレータと判別器の近似誤差と統計的誤差に分解する新しいオラクル不等式に基づく。
論文 参考訳(メタデータ) (2021-05-27T08:55:19Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。