論文の概要: A Geometric Perspective on Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2209.07370v1
- Date: Thu, 15 Sep 2022 15:32:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:17:34.171548
- Title: A Geometric Perspective on Variational Autoencoders
- Title(参考訳): 変分オートエンコーダの幾何学的視点
- Authors: Cl\'ement Chadebec, St\'ephanie Allassonni\`ere
- Abstract要約: 本稿では、完全に幾何学的な視点から、変分オートエンコーダフレームワークの新たな解釈を提案する。
このスキームを使うことで、バニラVAEと競合し、いくつかのベンチマークデータセットのより高度なバージョンよりも優れていることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a new interpretation of the Variational Autoencoder
framework by taking a fully geometric point of view. We argue that vanilla VAE
models unveil naturally a Riemannian structure in their latent space and that
taking into consideration those geometrical aspects can lead to better
interpolations and an improved generation procedure. This new proposed sampling
method consists in sampling from the uniform distribution deriving
intrinsically from the learned Riemannian latent space and we show that using
this scheme can make a vanilla VAE competitive and even better than more
advanced versions on several benchmark datasets. Since generative models are
known to be sensitive to the number of training samples we also stress the
method's robustness in the low data regime.
- Abstract(参考訳): 本稿では,完全幾何学的視点から変分オートエンコーダフレームワークの新たな解釈を提案する。
バニラVAEモデルは、その潜在空間において自然にリーマン構造を明らかにし、これらの幾何学的側面を考慮すると、より良い補間とより良い生成手順をもたらす。
この新しいサンプリング手法は,学習されたリーマン的潜在空間から得られる一様分布からのサンプリングから成り,このスキームを用いることでバニラvaeの競合性が向上し,複数のベンチマークデータセットのより高度なバージョンよりも優れていることを示す。
生成モデルはトレーニングサンプルの数に敏感であることが知られているので、低データ構造における手法の堅牢性も強調する。
関連論文リスト
- SIGMA: Scale-Invariant Global Sparse Shape Matching [49.85532688927782]
非剛体形状の正確なスパース対応を生成するための新しい混合整数プログラミング(MIP)法を提案する。
いくつかの挑戦的な3Dデータセットに対して,スパースな非剛性マッチングの最先端結果を示す。
論文 参考訳(メタデータ) (2023-08-16T14:25:30Z) - Trajectory-aware Principal Manifold Framework for Data Augmentation and
Image Generation [5.31812036803692]
多くの既存の手法は、ガウス分布のようなパラメトリック分布から新しいサンプルを生成するが、入力空間と特徴空間の両方でデータ多様体に沿ってサンプルを生成することにはほとんど注意を払わない。
そこで,本論文では,多様体のバックボーンを復元し,特定の軌跡に沿ってサンプルを生成するために,新規なトラジェクトリ対応主多様体フレームワークを提案する。
本研究では, よりコンパクトな多様体表現を抽出し, 分類精度を向上し, サンプル間のスムーズな変換を生成できることを示す。
論文 参考訳(メタデータ) (2023-07-30T07:31:38Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - A Pareto-optimal compositional energy-based model for sampling and
optimization of protein sequences [55.25331349436895]
深層生成モデルは、生命科学における逆問題に対する一般的な機械学習ベースのアプローチとして登場した。
これらの問題は、データ分布の学習に加えて、興味のある複数の特性を満たす新しい設計をサンプリングする必要があることが多い。
論文 参考訳(メタデータ) (2022-10-19T19:04:45Z) - Unveiling the Latent Space Geometry of Push-Forward Generative Models [24.025975236316846]
多くの深い生成モデルは、GAN(Generative Adversarial Networks)やVAE(Varial Auto-Encoders)のような連続生成器によってガウス測度のプッシュフォワードとして定義される。
この研究は、そのような深層生成モデルの潜伏空間を探索する。
これらのモデルの主な問題は、非連結分布を学習する際に、対象分布の支持外からサンプルを出力する傾向があることである。
論文 参考訳(メタデータ) (2022-07-21T15:29:35Z) - Multi-level Latent Space Structuring for Generative Control [53.240701050423155]
本稿では,StyleGAN生成アーキテクチャを活用して新たなトランケーション手法を提案する。
我々は、ガウスの学習可能な混合を用いて、StyleGANの拡張中間潜在空間であるW-空間を再生成することを学ぶ。
結果として生じる切り離しスキームは、元の未熟なサンプルをより忠実にし、品質と多様性のトレードオフをより良くする。
論文 参考訳(メタデータ) (2022-02-11T21:26:17Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Disentangled Representation Learning and Generation with Manifold
Optimization [10.69910379275607]
本研究は,変分方向の促進による絡み合いを明確に促進する表現学習フレームワークを提案する。
理論的な議論と様々な実験により、提案モデルは、生成品質と非絡み合い表現学習の両方の観点から、多くのVAE変種よりも改善されていることが示された。
論文 参考訳(メタデータ) (2020-06-12T10:00:49Z) - LOCA: LOcal Conformal Autoencoder for standardized data coordinates [6.608924227377152]
多様体の潜在変数に等長な $mathbbRd$ の埋め込みを学ぶ方法を提案する。
我々の埋め込みは, 変形を補正する埋め込みを構成するアルゴリズムであるLOCA (Local Conformal Autoencoder) を用いて得られる。
また、単一サイトWi-FiのローカライゼーションデータにLOCAを適用し、曲面推定を3ドルで行う。
論文 参考訳(メタデータ) (2020-04-15T17:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。