論文の概要: Optimal precision for GANs
- arxiv url: http://arxiv.org/abs/2207.10541v1
- Date: Thu, 21 Jul 2022 15:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:15:54.456037
- Title: Optimal precision for GANs
- Title(参考訳): GANの最適精度
- Authors: Thibaut Issenhuth, Ugo Tanielian, J\'er\'emie Mary, David Picard
- Abstract要約: GAN(Generative Adversarial Network)は、非連結分布を学習する際に、モデルの不特定に直面することが知られている。
最適なGANは、細胞が凸錐体であるボロノイ分割として、その潜伏空間を「単純なクラスター」として構成しなければならないことを示す。
- 参考スコア(独自算出の注目度): 24.025975236316846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When learning disconnected distributions, Generative adversarial networks
(GANs) are known to face model misspecification. Indeed, a continuous mapping
from a unimodal latent distribution to a disconnected one is impossible, so
GANs necessarily generate samples outside of the support of the target
distribution. This raises a fundamental question: what is the latent space
partition that minimizes the measure of these areas? Building on a recent
result of geometric measure theory, we prove that an optimal GANs must
structure its latent space as a 'simplicial cluster' - a Voronoi partition
where cells are convex cones - when the dimension of the latent space is larger
than the number of modes. In this configuration, each Voronoi cell maps to a
distinct mode of the data. We derive both an upper and a lower bound on the
optimal precision of GANs learning disconnected manifolds. Interestingly, these
two bounds have the same order of decrease: $\sqrt{\log m}$, $m$ being the
number of modes. Finally, we perform several experiments to exhibit the
geometry of the latent space and experimentally show that GANs have a geometry
with similar properties to the theoretical one.
- Abstract(参考訳): 切り離された分布を学習する場合、生成的敵ネットワーク(gans)は顔モデルの誤特定が知られている。
実際、単項潜在分布から非連結分布への連続写像は不可能であるため、GANは対象分布の支持外からサンプルを生成する必要がある。
これは基本的な疑問を提起する: これらの領域の測度を最小化する潜在空間分割とは何か?
幾何学的測度理論の最近の結果に基づいて、最適 GAN がその潜在空間を 'simplicial cluster' (セルが凸錐であるボロノイ分割) として構成しなければならないことを証明している。
この構成では、それぞれのボロノイ細胞はデータの異なるモードにマップされる。
我々は、GANs学習非連結多様体の最適精度に基づいて上界と下界の両方を導出する。
興味深いことに、これらの2つの境界は同じ順序で減少する:$\sqrt{\log m}$, $m$はモードの数である。
最後に、潜在空間の幾何を示すためにいくつかの実験を行い、GANが理論的性質に類似した幾何学を持つことを実験的に示す。
関連論文リスト
- Geometric Trajectory Diffusion Models [58.853975433383326]
生成モデルは3次元幾何学システムの生成において大きな可能性を示してきた。
既存のアプローチは静的構造のみで動作し、物理系は常に自然界において動的であるという事実を無視する。
本研究では3次元軌跡の時間分布をモデル化する最初の拡散モデルである幾何軌道拡散モデル(GeoTDM)を提案する。
論文 参考訳(メタデータ) (2024-10-16T20:36:41Z) - Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Geometric Latent Diffusion Models for 3D Molecule Generation [172.15028281732737]
生成モデル、特に拡散モデル(DM)は、特徴豊富な測地を生成する上で有望な結果を得た。
我々はGeoLDM(Geometric Latent Diffusion Models)と呼ばれる新しい3次元分子生成法を提案する。
論文 参考訳(メタデータ) (2023-05-02T01:07:22Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Latent Space Refinement for Deep Generative Models [0.4297070083645048]
反復生成モデルによる空間改良が, 位相的障害を回避し, 精度を向上できることを示す。
本稿では,LaSeR(Latent Space Refinement)プロトコルを実例で紹介し,正規化フローと生成逆数ネットワークの組み合わせに着目した。
論文 参考訳(メタデータ) (2021-06-01T21:01:39Z) - Data Assimilation Predictive GAN (DA-PredGAN): applied to determine the
spread of COVID-19 [0.0]
本稿では,時間内予測のためのGAN(Generative Adversarial Network)とDA-PredGAN(DA-PredGAN)の新たな利用法を提案する。
GANは、現実的に見える画像の生成に優れた結果を達成した後、最近多くの注目を集めています。
論文 参考訳(メタデータ) (2021-05-17T10:56:53Z) - Max-Affine Spline Insights into Deep Generative Networks [8.579613053834342]
我々は,GDN(Generative Deep Networks)の大規模なクラスをスプライン演算子と接続し,それらの特性,制限,新たな機会を導出する。
生成した多様体の潜在空間分割、次元、角度を特徴付けることにより、多様体次元と近似誤差とサンプルサイズを関連付ける。
生成多様体上の出力確率密度を潜在空間密度の観点から導出し、シャノンエントロピーのような重要な統計量の計算を可能にする。
論文 参考訳(メタデータ) (2020-02-26T00:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。