論文の概要: Learning disconnected manifolds: a no GANs land
- arxiv url: http://arxiv.org/abs/2006.04596v3
- Date: Thu, 10 Dec 2020 12:46:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:41:55.662593
- Title: Learning disconnected manifolds: a no GANs land
- Title(参考訳): 非連結多様体を学習する:非ガンス陸
- Authors: Ugo Tanielian, Thibaut Issenhuth, Elvis Dohmatob, Jeremie Mary
- Abstract要約: Generative AdversarialNetworksは、連続ジェネレータによって変換された非モードラテント分布を利用する。
対象分布の精度の上限を述べた非連結多様体学習に対する自由弁当定理を定めている。
生成元ヤコビアンのノルムに基づく拒絶サンプリング法を導出し,その効率をBigGANを含む複数のジェネレータで示す。
- 参考スコア(独自算出の注目度): 15.4867805276559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical architectures of Generative AdversarialNetworks make use of a
unimodal latent distribution transformed by a continuous generator.
Consequently, the modeled distribution always has connected support which is
cumbersome when learning a disconnected set of manifolds. We formalize this
problem by establishing a no free lunch theorem for the disconnected manifold
learning stating an upper bound on the precision of the targeted distribution.
This is done by building on the necessary existence of a low-quality region
where the generator continuously samples data between two disconnected modes.
Finally, we derive a rejection sampling method based on the norm of generators
Jacobian and show its efficiency on several generators including BigGAN.
- Abstract(参考訳): 生成型adversarialnetworksの典型的なアーキテクチャは、連続生成器によって変換される一様潜在分布を利用する。
したがって、モデル化された分布は常に連結な支持を持ち、多様体の切断集合を学習するときは面倒である。
我々は、対象分布の精度の上限を述べた非連結多様体学習に対する自由弁当定理を定式化することによって、この問題を定式化する。
これは、ジェネレータが2つの非接続モード間でデータを継続的にサンプリングする低品質領域が必要とされることに基づいて行われる。
最後に, ジェネレータヤコビアンのノルムに基づく拒絶サンプリング法を導出し, その効率をBigGANを含む複数のジェネレータで示す。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - A New Paradigm for Generative Adversarial Networks based on Randomized
Decision Rules [8.36840154574354]
Generative Adversarial Network (GAN)は、最近、生成モデルをトレーニングするための新しい機械学習手法として文献で紹介されている。
非パラメトリッククラスタリングや非パラメトリック条件独立テストのような統計学に多くの応用がある。
本稿では,GANがこの問題に苦しむ理由を特定し,それに対応するために,ランダム化決定規則に基づく新しいGANの定式化を提案する。
論文 参考訳(メタデータ) (2023-06-23T17:50:34Z) - StyleGenes: Discrete and Efficient Latent Distributions for GANs [149.0290830305808]
GAN(Generative Adversarial Networks)のための離散潜在分布を提案する。
連続的な先行点から潜在ベクトルを描く代わりに、学習可能な潜在点の有限集合からサンプリングする。
私たちは生物の情報のエンコーディングからインスピレーションを得ます。
論文 参考訳(メタデータ) (2023-04-30T23:28:46Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Generation of data on discontinuous manifolds via continuous stochastic
non-invertible networks [6.201770337181472]
連続ネットワークを用いて不連続分布を生成する方法を示す。
コスト関数と情報理論の定式化の関係を導出する。
提案手法を合成2次元分布に適用し,不連続分布の再構成と生成の両立を実証する。
論文 参考訳(メタデータ) (2021-12-17T17:39:59Z) - Mode Penalty Generative Adversarial Network with adapted Auto-encoder [0.15229257192293197]
本稿では,事前学習した自動エンコーダと組み合わされたモードペナルティGANを提案する。
提案手法をGANに適用することにより, ジェネレータの最適化がより安定し, 実験による収束が早くなることを示す。
論文 参考訳(メタデータ) (2020-11-16T03:39:53Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Making Method of Moments Great Again? -- How can GANs learn
distributions [34.91089650516183]
Generative Adrial Networks (GAN) は、複雑な現実世界の分布を学習するために広く使われているモデルである。
GANでは、ジェネレータの訓練は、判別器がもはやジェネレータの出力とトレーニングの一連の例を区別できない場合、通常停止する。
我々は,このジェネレータ・ディスクリミネーター・トレーニングプロセスを理解するための理論的結果を確立する。
論文 参考訳(メタデータ) (2020-03-09T10:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。