論文の概要: Unveiling the Latent Space Geometry of Push-Forward Generative Models
- arxiv url: http://arxiv.org/abs/2207.10541v3
- Date: Mon, 15 May 2023 15:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 01:13:56.537749
- Title: Unveiling the Latent Space Geometry of Push-Forward Generative Models
- Title(参考訳): プッシュフォワード生成モデルの潜時空間幾何学の展開
- Authors: Thibaut Issenhuth, Ugo Tanielian, J\'er\'emie Mary, David Picard
- Abstract要約: 多くの深い生成モデルは、GAN(Generative Adversarial Networks)やVAE(Varial Auto-Encoders)のような連続生成器によってガウス測度のプッシュフォワードとして定義される。
この研究は、そのような深層生成モデルの潜伏空間を探索する。
これらのモデルの主な問題は、非連結分布を学習する際に、対象分布の支持外からサンプルを出力する傾向があることである。
- 参考スコア(独自算出の注目度): 24.025975236316846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many deep generative models are defined as a push-forward of a Gaussian
measure by a continuous generator, such as Generative Adversarial Networks
(GANs) or Variational Auto-Encoders (VAEs). This work explores the latent space
of such deep generative models. A key issue with these models is their tendency
to output samples outside of the support of the target distribution when
learning disconnected distributions. We investigate the relationship between
the performance of these models and the geometry of their latent space.
Building on recent developments in geometric measure theory, we prove a
sufficient condition for optimality in the case where the dimension of the
latent space is larger than the number of modes. Through experiments on GANs,
we demonstrate the validity of our theoretical results and gain new insights
into the latent space geometry of these models. Additionally, we propose a
truncation method that enforces a simplicial cluster structure in the latent
space and improves the performance of GANs.
- Abstract(参考訳): 多くの深い生成モデルは、GAN(Generative Adversarial Networks)やVAE(VAE)のような連続生成器によってガウス測度のプッシュフォワードとして定義される。
この研究は、そのような深層生成モデルの潜在空間を探索する。
これらのモデルの主な問題は、非連結分布を学習する際に、対象分布の支持外からサンプルを出力する傾向があることである。
これらのモデルの性能と潜在空間の形状との関係について検討した。
幾何測度理論の最近の発展に基づき、潜在空間の次元がモードの数よりも大きい場合の最適性に対する十分条件が証明される。
GANに関する実験を通じて、理論結果の有効性を実証し、これらのモデルの潜在空間幾何学に関する新たな知見を得る。
さらに,遅延空間における単純なクラスタ構造を強制し,GANの性能を向上するトランケーション手法を提案する。
関連論文リスト
- Geometric Trajectory Diffusion Models [58.853975433383326]
生成モデルは3次元幾何学システムの生成において大きな可能性を示してきた。
既存のアプローチは静的構造のみで動作し、物理系は常に自然界において動的であるという事実を無視する。
本研究では3次元軌跡の時間分布をモデル化する最初の拡散モデルである幾何軌道拡散モデル(GeoTDM)を提案する。
論文 参考訳(メタデータ) (2024-10-16T20:36:41Z) - Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Geometric Latent Diffusion Models for 3D Molecule Generation [172.15028281732737]
生成モデル、特に拡散モデル(DM)は、特徴豊富な測地を生成する上で有望な結果を得た。
我々はGeoLDM(Geometric Latent Diffusion Models)と呼ばれる新しい3次元分子生成法を提案する。
論文 参考訳(メタデータ) (2023-05-02T01:07:22Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Latent Space Refinement for Deep Generative Models [0.4297070083645048]
反復生成モデルによる空間改良が, 位相的障害を回避し, 精度を向上できることを示す。
本稿では,LaSeR(Latent Space Refinement)プロトコルを実例で紹介し,正規化フローと生成逆数ネットワークの組み合わせに着目した。
論文 参考訳(メタデータ) (2021-06-01T21:01:39Z) - Data Assimilation Predictive GAN (DA-PredGAN): applied to determine the
spread of COVID-19 [0.0]
本稿では,時間内予測のためのGAN(Generative Adversarial Network)とDA-PredGAN(DA-PredGAN)の新たな利用法を提案する。
GANは、現実的に見える画像の生成に優れた結果を達成した後、最近多くの注目を集めています。
論文 参考訳(メタデータ) (2021-05-17T10:56:53Z) - Max-Affine Spline Insights into Deep Generative Networks [8.579613053834342]
我々は,GDN(Generative Deep Networks)の大規模なクラスをスプライン演算子と接続し,それらの特性,制限,新たな機会を導出する。
生成した多様体の潜在空間分割、次元、角度を特徴付けることにより、多様体次元と近似誤差とサンプルサイズを関連付ける。
生成多様体上の出力確率密度を潜在空間密度の観点から導出し、シャノンエントロピーのような重要な統計量の計算を可能にする。
論文 参考訳(メタデータ) (2020-02-26T00:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。