論文の概要: Geometry-Aware Hamiltonian Variational Auto-Encoder
- arxiv url: http://arxiv.org/abs/2010.11518v1
- Date: Thu, 22 Oct 2020 08:26:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:23:28.299455
- Title: Geometry-Aware Hamiltonian Variational Auto-Encoder
- Title(参考訳): 幾何学的ハミルトン変分オートエンコーダ
- Authors: Cl\'ement Chadebec (CRC, Universit\'e de Paris), Cl\'ement Mantoux
(ARAMIS) and St\'ephanie Allassonni\`ere (CRC, Universit\'e de Paris)
- Abstract要約: 変分自己エンコーダ(VAE)は、データよりもはるかに小さな次元空間にある潜在変数を抽出することにより、次元削減を行うのに適したツールであることが証明されている。
しかし、そのような生成モデルは、医学のような多くの現実の分野に豊富に存在する小さなデータセットで訓練すると、性能が低下する可能性がある。
このような潜在空間モデリングは、より意味のある、よりリアルなデータ生成、より信頼性の高いクラスタリングに繋がる基盤構造に関する有用な情報を提供する、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational auto-encoders (VAEs) have proven to be a well suited tool for
performing dimensionality reduction by extracting latent variables lying in a
potentially much smaller dimensional space than the data. Their ability to
capture meaningful information from the data can be easily apprehended when
considering their capability to generate new realistic samples or perform
potentially meaningful interpolations in a much smaller space. However, such
generative models may perform poorly when trained on small data sets which are
abundant in many real-life fields such as medicine. This may, among others,
come from the lack of structure of the latent space, the geometry of which is
often under-considered. We thus propose in this paper to see the latent space
as a Riemannian manifold endowed with a parametrized metric learned at the same
time as the encoder and decoder networks. This metric is then used in what we
called the Riemannian Hamiltonian VAE which extends the Hamiltonian VAE
introduced by arXiv:1805.11328 to better exploit the underlying geometry of the
latent space. We argue that such latent space modelling provides useful
information about its underlying structure leading to far more meaningful
interpolations, more realistic data-generation and more reliable clustering.
- Abstract(参考訳): 変分自己エンコーダ(VAE)は、データよりもはるかに小さな次元空間にある潜在変数を抽出することにより、次元削減を行うのに適したツールであることが証明されている。
データから有意義な情報を捉える能力は、新しい現実的なサンプルを生成したり、より小さな空間で潜在的に有意義な補間を行う能力を考えると、容易に把握できる。
しかし、そのような生成モデルは、医学のような多くの現実の分野に豊富に存在する小さなデータセットで訓練すると、性能が低下する可能性がある。
これは、特に潜在空間の構造が欠如していることによる可能性があり、その幾何学はしばしば過小評価される。
そこで本稿では、エンコーダとデコーダのネットワークと並行して学習されるパラメトリ化された計量を持つリーマン多様体として潜在空間を考える。
この計量は、 arXiv:1805.11328 によって導入されたハミルトニアン VAE を拡張して、潜在空間の基底幾何学をよりよく活用するリーマン・ハミルトニアン VAE と呼ばれる方法で用いられる。
このような潜在空間モデリングは、より意味のある補間、より現実的なデータ生成、より信頼性の高いクラスタリングをもたらす基盤構造に関する有用な情報を提供する。
関連論文リスト
- Adaptive Learning of the Latent Space of Wasserstein Generative Adversarial Networks [7.958528596692594]
我々は、潜伏ワッサーシュタインガン(LWGAN)と呼ばれる新しい枠組みを提案する。
ワッサーシュタイン自己エンコーダとワッサーシュタイン GANを融合させ、データ多様体の内在次元を適応的に学習できるようにする。
我々は,LWGANが複数のシナリオにおいて,正しい固有次元を識別可能であることを示す。
論文 参考訳(メタデータ) (2024-09-27T01:25:22Z) - Decoder ensembling for learned latent geometries [15.484595752241122]
我々は、関連する予想多様体上の測地線を容易に計算する方法を示す。
このシンプルで信頼性が高く、簡単に使える潜在測地に一歩近づきます。
論文 参考訳(メタデータ) (2024-08-14T12:35:41Z) - (Deep) Generative Geodesics [57.635187092922976]
2つのデータポイント間の類似性を評価するために,新しい測定基準を導入する。
我々の計量は、生成距離と生成測地学の概念的定義に繋がる。
彼らの近似は、穏やかな条件下で真の値に収束することが証明されている。
論文 参考訳(メタデータ) (2024-07-15T21:14:02Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart Autoencoders [45.29194877564103]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
このようなネットワークの近似力を議論し、周囲空間の次元ではなく、本質的にデータ多様体の内在次元に依存する境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Quadric hypersurface intersection for manifold learning in feature space [52.83976795260532]
適度な高次元と大きなデータセットに適した多様体学習技術。
この手法は、二次超曲面の交点という形で訓練データから学習される。
テスト時、この多様体は任意の新しい点に対する外れ値スコアを導入するのに使うことができる。
論文 参考訳(メタデータ) (2021-02-11T18:52:08Z) - Variational Autoencoder with Learned Latent Structure [4.41370484305827]
学習潜在構造を持つ変分オートエンコーダ(VAELLS)について紹介する。
VAELLS は、学習可能な多様体モデルを VAE の潜在空間に組み込む。
我々は、既知の潜在構造を持つ実例でモデルを検証し、実世界のデータセット上でその能力を実証する。
論文 参考訳(メタデータ) (2020-06-18T14:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。