論文の概要: Geometry-Aware Hamiltonian Variational Auto-Encoder
- arxiv url: http://arxiv.org/abs/2010.11518v1
- Date: Thu, 22 Oct 2020 08:26:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:23:28.299455
- Title: Geometry-Aware Hamiltonian Variational Auto-Encoder
- Title(参考訳): 幾何学的ハミルトン変分オートエンコーダ
- Authors: Cl\'ement Chadebec (CRC, Universit\'e de Paris), Cl\'ement Mantoux
(ARAMIS) and St\'ephanie Allassonni\`ere (CRC, Universit\'e de Paris)
- Abstract要約: 変分自己エンコーダ(VAE)は、データよりもはるかに小さな次元空間にある潜在変数を抽出することにより、次元削減を行うのに適したツールであることが証明されている。
しかし、そのような生成モデルは、医学のような多くの現実の分野に豊富に存在する小さなデータセットで訓練すると、性能が低下する可能性がある。
このような潜在空間モデリングは、より意味のある、よりリアルなデータ生成、より信頼性の高いクラスタリングに繋がる基盤構造に関する有用な情報を提供する、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational auto-encoders (VAEs) have proven to be a well suited tool for
performing dimensionality reduction by extracting latent variables lying in a
potentially much smaller dimensional space than the data. Their ability to
capture meaningful information from the data can be easily apprehended when
considering their capability to generate new realistic samples or perform
potentially meaningful interpolations in a much smaller space. However, such
generative models may perform poorly when trained on small data sets which are
abundant in many real-life fields such as medicine. This may, among others,
come from the lack of structure of the latent space, the geometry of which is
often under-considered. We thus propose in this paper to see the latent space
as a Riemannian manifold endowed with a parametrized metric learned at the same
time as the encoder and decoder networks. This metric is then used in what we
called the Riemannian Hamiltonian VAE which extends the Hamiltonian VAE
introduced by arXiv:1805.11328 to better exploit the underlying geometry of the
latent space. We argue that such latent space modelling provides useful
information about its underlying structure leading to far more meaningful
interpolations, more realistic data-generation and more reliable clustering.
- Abstract(参考訳): 変分自己エンコーダ(VAE)は、データよりもはるかに小さな次元空間にある潜在変数を抽出することにより、次元削減を行うのに適したツールであることが証明されている。
データから有意義な情報を捉える能力は、新しい現実的なサンプルを生成したり、より小さな空間で潜在的に有意義な補間を行う能力を考えると、容易に把握できる。
しかし、そのような生成モデルは、医学のような多くの現実の分野に豊富に存在する小さなデータセットで訓練すると、性能が低下する可能性がある。
これは、特に潜在空間の構造が欠如していることによる可能性があり、その幾何学はしばしば過小評価される。
そこで本稿では、エンコーダとデコーダのネットワークと並行して学習されるパラメトリ化された計量を持つリーマン多様体として潜在空間を考える。
この計量は、 arXiv:1805.11328 によって導入されたハミルトニアン VAE を拡張して、潜在空間の基底幾何学をよりよく活用するリーマン・ハミルトニアン VAE と呼ばれる方法で用いられる。
このような潜在空間モデリングは、より意味のある補間、より現実的なデータ生成、より信頼性の高いクラスタリングをもたらす基盤構造に関する有用な情報を提供する。
関連論文リスト
- Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Relative representations enable zero-shot latent space communication [19.144630518400604]
ニューラルネットワークは、高次元空間に横たわるデータ多様体の幾何学的構造を潜在表現に埋め込む。
ニューラルネットワークがこれらの相対表現をどのように活用して、実際に潜時等尺不変性を保証するかを示す。
論文 参考訳(メタデータ) (2022-09-30T12:37:03Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart
Autoencoders [65.2511270059236]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
データ多様体の内在次元に依存するネットワークの理論的近似力について論じる。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - RENs: Relevance Encoding Networks [0.0]
本稿では,遅延空間に先行する自動相対性決定(ARD)を用いて,データ固有のボトルネック次元を学習する新しい確率的VOEベースのフレームワークであるrelevance encoding network (RENs)を提案する。
提案モデルは,サンプルの表現や生成品質を損なうことなく,関連性のあるボトルネック次元を学習することを示す。
論文 参考訳(メタデータ) (2022-05-25T21:53:48Z) - Quadric hypersurface intersection for manifold learning in feature space [52.83976795260532]
適度な高次元と大きなデータセットに適した多様体学習技術。
この手法は、二次超曲面の交点という形で訓練データから学習される。
テスト時、この多様体は任意の新しい点に対する外れ値スコアを導入するのに使うことができる。
論文 参考訳(メタデータ) (2021-02-11T18:52:08Z) - Characterizing the Latent Space of Molecular Deep Generative Models with
Persistent Homology Metrics [21.95240820041655]
変分オート(VAE)は、エンコーダとデコーダのネットワークペアをトレーニングデータ分散の再構築のために訓練する生成モデルである。
本研究では, 深部生成モデルの潜伏空間が, 構造的および化学的特徴をエンコードできるかどうかを計測する手法を提案する。
論文 参考訳(メタデータ) (2020-10-18T13:33:02Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Variational Autoencoder with Learned Latent Structure [4.41370484305827]
学習潜在構造を持つ変分オートエンコーダ(VAELLS)について紹介する。
VAELLS は、学習可能な多様体モデルを VAE の潜在空間に組み込む。
我々は、既知の潜在構造を持つ実例でモデルを検証し、実世界のデータセット上でその能力を実証する。
論文 参考訳(メタデータ) (2020-06-18T14:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。