論文の概要: Variational Autoencoder with Learned Latent Structure
- arxiv url: http://arxiv.org/abs/2006.10597v2
- Date: Tue, 2 Mar 2021 16:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 12:47:57.455160
- Title: Variational Autoencoder with Learned Latent Structure
- Title(参考訳): 学習潜在構造を有する変分オートエンコーダ
- Authors: Marissa C. Connor, Gregory H. Canal, Christopher J. Rozell
- Abstract要約: 学習潜在構造を持つ変分オートエンコーダ(VAELLS)について紹介する。
VAELLS は、学習可能な多様体モデルを VAE の潜在空間に組み込む。
我々は、既知の潜在構造を持つ実例でモデルを検証し、実世界のデータセット上でその能力を実証する。
- 参考スコア(独自算出の注目度): 4.41370484305827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The manifold hypothesis states that high-dimensional data can be modeled as
lying on or near a low-dimensional, nonlinear manifold. Variational
Autoencoders (VAEs) approximate this manifold by learning mappings from
low-dimensional latent vectors to high-dimensional data while encouraging a
global structure in the latent space through the use of a specified prior
distribution. When this prior does not match the structure of the true data
manifold, it can lead to a less accurate model of the data. To resolve this
mismatch, we introduce the Variational Autoencoder with Learned Latent
Structure (VAELLS) which incorporates a learnable manifold model into the
latent space of a VAE. This enables us to learn the nonlinear manifold
structure from the data and use that structure to define a prior in the latent
space. The integration of a latent manifold model not only ensures that our
prior is well-matched to the data, but also allows us to define generative
transformation paths in the latent space and describe class manifolds with
transformations stemming from examples of each class. We validate our model on
examples with known latent structure and also demonstrate its capabilities on a
real-world dataset.
- Abstract(参考訳): 多様体仮説は、高次元のデータは低次元の非線形多様体の上または近くに横たわるものとしてモデル化できるというものである。
変分オートエンコーダ(vaes)はこの多様体を低次元の潜在ベクトルから高次元のデータへの写像を学習し、特定の事前分布を用いて潜在空間の全体構造を奨励することで近似する。
この前者は真のデータ多様体の構造と一致しない場合、データのより正確なモデルにつながる可能性がある。
このミスマッチを解決するために,学習可能な多様体モデルをVOEの潜時空間に組み込んだ学習潜在構造付き変分オートエンコーダ(VAELLS)を導入する。
これにより、データから非線形多様体構造を学習し、その構造を用いて潜在空間の先行を定義することができる。
潜在多様体モデルの積分は、先行がデータに十分に整合していることを保証するだけでなく、潜在空間における生成的変換パスを定義し、各クラスの例から生じる変換を持つクラス多様体を記述することもできる。
我々は、既知の潜在構造を持つ実例でモデルを検証し、実世界のデータセット上でその能力を実証する。
関連論文リスト
- Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - T1: Scaling Diffusion Probabilistic Fields to High-Resolution on Unified
Visual Modalities [69.16656086708291]
拡散確率場(DPF)は、距離空間上で定義された連続関数の分布をモデル化する。
本稿では,局所構造学習に着目したビューワイズサンプリングアルゴリズムによる新しいモデルを提案する。
モデルは、複数のモダリティを統一しながら、高解像度のデータを生成するためにスケールすることができる。
論文 参考訳(メタデータ) (2023-05-24T03:32:03Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Flow Based Models For Manifold Data [11.344428134774475]
フローベース生成モデルは一般に、観測空間と同一の次元を持つ潜在空間を定義する。
多くの問題において、データはそれらが常駐する全周囲データ空間を浮き彫りにせず、むしろ低次元多様体である。
サンプル生成と表現品質の両方に利益をもたらす多様体を事前に学習することを提案する。
論文 参考訳(メタデータ) (2021-09-29T06:48:01Z) - Atlas Generative Models and Geodesic Interpolation [0.20305676256390928]
我々は,Atlas Generative Models (AGMs) の一般クラスを定義する。
グラフに基づく測地線のアルゴリズムをAGMの設定に一般化してこれを実証し、その性能を実験的に検証する。
論文 参考訳(メタデータ) (2021-01-30T16:35:25Z) - Geometry-Aware Hamiltonian Variational Auto-Encoder [0.0]
変分自己エンコーダ(VAE)は、データよりもはるかに小さな次元空間にある潜在変数を抽出することにより、次元削減を行うのに適したツールであることが証明されている。
しかし、そのような生成モデルは、医学のような多くの現実の分野に豊富に存在する小さなデータセットで訓練すると、性能が低下する可能性がある。
このような潜在空間モデリングは、より意味のある、よりリアルなデータ生成、より信頼性の高いクラスタリングに繋がる基盤構造に関する有用な情報を提供する、と我々は主張する。
論文 参考訳(メタデータ) (2020-10-22T08:26:46Z) - Generative Model without Prior Distribution Matching [26.91643368299913]
変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
論文 参考訳(メタデータ) (2020-09-23T09:33:24Z) - Learning Bijective Feature Maps for Linear ICA [73.85904548374575]
画像データに適した既存の確率的深層生成モデル (DGM) は, 非線形ICAタスクでは不十分であることを示す。
そこで本研究では,2次元特徴写像と線形ICAモデルを組み合わせることで,高次元データに対する解釈可能な潜在構造を学習するDGMを提案する。
画像上のフローベースモデルや線形ICA、変分オートエンコーダよりも、高速に収束し、訓練が容易なモデルを作成し、教師なしの潜在因子発見を実現する。
論文 参考訳(メタデータ) (2020-02-18T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。