論文の概要: A Geometric Perspective on Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2209.07370v1
- Date: Thu, 15 Sep 2022 15:32:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:17:34.171548
- Title: A Geometric Perspective on Variational Autoencoders
- Title(参考訳): 変分オートエンコーダの幾何学的視点
- Authors: Cl\'ement Chadebec, St\'ephanie Allassonni\`ere
- Abstract要約: 本稿では、完全に幾何学的な視点から、変分オートエンコーダフレームワークの新たな解釈を提案する。
このスキームを使うことで、バニラVAEと競合し、いくつかのベンチマークデータセットのより高度なバージョンよりも優れていることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a new interpretation of the Variational Autoencoder
framework by taking a fully geometric point of view. We argue that vanilla VAE
models unveil naturally a Riemannian structure in their latent space and that
taking into consideration those geometrical aspects can lead to better
interpolations and an improved generation procedure. This new proposed sampling
method consists in sampling from the uniform distribution deriving
intrinsically from the learned Riemannian latent space and we show that using
this scheme can make a vanilla VAE competitive and even better than more
advanced versions on several benchmark datasets. Since generative models are
known to be sensitive to the number of training samples we also stress the
method's robustness in the low data regime.
- Abstract(参考訳): 本稿では,完全幾何学的視点から変分オートエンコーダフレームワークの新たな解釈を提案する。
バニラVAEモデルは、その潜在空間において自然にリーマン構造を明らかにし、これらの幾何学的側面を考慮すると、より良い補間とより良い生成手順をもたらす。
この新しいサンプリング手法は,学習されたリーマン的潜在空間から得られる一様分布からのサンプリングから成り,このスキームを用いることでバニラvaeの競合性が向上し,複数のベンチマークデータセットのより高度なバージョンよりも優れていることを示す。
生成モデルはトレーニングサンプルの数に敏感であることが知られているので、低データ構造における手法の堅牢性も強調する。
関連論文リスト
- Uniform Transformation: Refining Latent Representation in Variational Autoencoders [7.4316292428754105]
本稿では,不規則な潜伏分布に対応するために,新しい適応型3段階一様変換(UT)モジュールを提案する。
この手法は不規則分布を潜在空間の均一分布に再構成することにより、潜在表現の絡み合いと解釈可能性を大幅に向上させる。
実験により,提案するUTモジュールの有効性を実証し,ベンチマークデータセット間の絡み合いの指標を改良した。
論文 参考訳(メタデータ) (2024-07-02T21:46:23Z) - Bayesian Structural Model Updating with Multimodal Variational Autoencoder [2.4297252937957436]
提案手法は,マルチモーダル変分オートエンコーダ(VAE)のサロゲート・ユニモーダルエンコーダを利用する。
様々な動的解析モデルに適用可能な高次元相関同時観測に特に適している。
論文 参考訳(メタデータ) (2024-06-07T23:12:51Z) - SIGMA: Scale-Invariant Global Sparse Shape Matching [50.385414715675076]
非剛体形状の正確なスパース対応を生成するための新しい混合整数プログラミング(MIP)法を提案する。
いくつかの挑戦的な3Dデータセットに対して,スパースな非剛性マッチングの最先端結果を示す。
論文 参考訳(メタデータ) (2023-08-16T14:25:30Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Unveiling the Latent Space Geometry of Push-Forward Generative Models [24.025975236316846]
多くの深い生成モデルは、GAN(Generative Adversarial Networks)やVAE(Varial Auto-Encoders)のような連続生成器によってガウス測度のプッシュフォワードとして定義される。
この研究は、そのような深層生成モデルの潜伏空間を探索する。
これらのモデルの主な問題は、非連結分布を学習する際に、対象分布の支持外からサンプルを出力する傾向があることである。
論文 参考訳(メタデータ) (2022-07-21T15:29:35Z) - Multi-level Latent Space Structuring for Generative Control [53.240701050423155]
本稿では,StyleGAN生成アーキテクチャを活用して新たなトランケーション手法を提案する。
我々は、ガウスの学習可能な混合を用いて、StyleGANの拡張中間潜在空間であるW-空間を再生成することを学ぶ。
結果として生じる切り離しスキームは、元の未熟なサンプルをより忠実にし、品質と多様性のトレードオフをより良くする。
論文 参考訳(メタデータ) (2022-02-11T21:26:17Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [55.28436972267793]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - LOCA: LOcal Conformal Autoencoder for standardized data coordinates [6.608924227377152]
多様体の潜在変数に等長な $mathbbRd$ の埋め込みを学ぶ方法を提案する。
我々の埋め込みは, 変形を補正する埋め込みを構成するアルゴリズムであるLOCA (Local Conformal Autoencoder) を用いて得られる。
また、単一サイトWi-FiのローカライゼーションデータにLOCAを適用し、曲面推定を3ドルで行う。
論文 参考訳(メタデータ) (2020-04-15T17:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。