論文の概要: On some theoretical limitations of Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2110.10915v1
- Date: Thu, 21 Oct 2021 06:10:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-23 08:54:23.195976
- Title: On some theoretical limitations of Generative Adversarial Networks
- Title(参考訳): 生成逆ネットワークの理論的限界について
- Authors: Beno\^it Oriol and Alexandre Miot
- Abstract要約: GANが任意の確率分布を生成できるという一般的な仮定である。
GANが重み付き分布を生成できないことを示すExtreme Value Theoryに基づく新しい結果を提供する。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks have become a core technique in Machine
Learning to generate unknown distributions from data samples. They have been
used in a wide range of context without paying much attention to the possible
theoretical limitations of those models. Indeed, because of the universal
approximation properties of Neural Networks, it is a general assumption that
GANs can generate any probability distribution. Recently, people began to
question this assumption and this article is in line with this thinking. We
provide a new result based on Extreme Value Theory showing that GANs can't
generate heavy tailed distributions. The full proof of this result is given.
- Abstract(参考訳): Generative Adversarial Networksは、データサンプルから未知の分布を生成する機械学習のコア技術となっている。
これらは、これらのモデルの理論的限界にあまり注意を払わずに、幅広い文脈で使用されてきた。
実際、ニューラルネットワークの普遍的な近似特性のため、GANが任意の確率分布を生成できるという一般的な仮定である。
最近、人々はこの仮定に疑問を呈し始めており、この記事はこの考えに沿っている。
GANが重み付き分布を生成できないことを示すExtreme Value Theoryに基づく新しい結果を提供する。
この結果の完全な証拠が与えられる。
関連論文リスト
- A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - Indeterminate Probability Neural Network [20.993728880886994]
本稿では,古典的確率論の拡張である新しい一般確率論を提案する。
提案するニューラルネットワークフレームワークでは,ニューラルネットワークの出力を確率事象として定義する。
例えば、100の出力ノードを持つモデルでは、100億のカテゴリを分類できる。
論文 参考訳(メタデータ) (2023-03-21T01:57:40Z) - Redes Generativas Adversarias (GAN) Fundamentos Te\'oricos y
Aplicaciones [0.40611352512781856]
GAN(Generative Adversarial Network)は、ジェネレータとジェネレータと呼ばれる2つのニューラルネットワークのトレーニングに基づく手法である。
GANはコンピュータビジョン、セマンティックセグメンテーション、時系列合成、画像編集、自然言語処理、テキストからの画像生成など幅広い分野で応用されている。
論文 参考訳(メタデータ) (2023-02-18T14:39:51Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Minimax Optimality (Probably) Doesn't Imply Distribution Learning for
GANs [44.4200799586461]
標準的な暗号的仮定は、この強い条件がまだ不十分であることを示している。
我々の技術は、GANとPRGの深い関係を明らかにし、GANの計算環境に関するさらなる洞察をもたらすものと信じている。
論文 参考訳(メタデータ) (2022-01-18T18:59:21Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - A t-distribution based operator for enhancing out of distribution
robustness of neural network classifiers [14.567354306568296]
ニューラルネットワーク(NN)分類器は、トレーニング中に現れていないサンプルに極端な確率を割り当てることができる。
この不必要な振る舞いの原因の1つは、標準ソフトマックス作用素の使用にある。
本稿では,不確実性をよりよく記述できる$t$-distributionsを用いて導出する,新しい演算子を提案する。
論文 参考訳(メタデータ) (2020-06-09T16:39:07Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。