論文の概要: Finsler Multi-Dimensional Scaling: Manifold Learning for Asymmetric Dimensionality Reduction and Embedding
- arxiv url: http://arxiv.org/abs/2503.18010v1
- Date: Sun, 23 Mar 2025 10:03:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:36:37.127833
- Title: Finsler Multi-Dimensional Scaling: Manifold Learning for Asymmetric Dimensionality Reduction and Embedding
- Title(参考訳): フィンスラー多次元スケーリング:非対称次元化と埋め込みのためのマニフォールド学習
- Authors: Thomas Dagès, Simon Weber, Ya-Wei Eileen Lin, Ronen Talmon, Daniel Cremers, Michael Lindenbaum, Alfred M. Bruckstein, Ron Kimmel,
- Abstract要約: 次元化の削減は、データ分析や可視化における中心的な応用とともに、重要なパターンを保ちながら、特徴的次元を減らし、複雑なデータを単純化することを目的としている。
基礎となるデータ構造を維持するため、多次元スケーリング(MDS)法は距離などの対等な相似性を保存することに重点を置いている。
- 参考スコア(独自算出の注目度): 41.601022263772535
- License:
- Abstract: Dimensionality reduction is a fundamental task that aims to simplify complex data by reducing its feature dimensionality while preserving essential patterns, with core applications in data analysis and visualisation. To preserve the underlying data structure, multi-dimensional scaling (MDS) methods focus on preserving pairwise dissimilarities, such as distances. They optimise the embedding to have pairwise distances as close as possible to the data dissimilarities. However, the current standard is limited to embedding data in Riemannian manifolds. Motivated by the lack of asymmetry in the Riemannian metric of the embedding space, this paper extends the MDS problem to a natural asymmetric generalisation of Riemannian manifolds called Finsler manifolds. Inspired by Euclidean space, we define a canonical Finsler space for embedding asymmetric data. Due to its simplicity with respect to geodesics, data representation in this space is both intuitive and simple to analyse. We demonstrate that our generalisation benefits from the same theoretical convergence guarantees. We reveal the effectiveness of our Finsler embedding across various types of non-symmetric data, highlighting its value in applications such as data visualisation, dimensionality reduction, directed graph embedding, and link prediction.
- Abstract(参考訳): 次元の減少は、データ分析や可視化における中心的な応用とともに、重要なパターンを保ちながら特徴的次元を減らし、複雑なデータを簡単にすることを目的とした基本的なタスクである。
基礎となるデータ構造を維持するため、多次元スケーリング(MDS)法は距離などの対等な相似性を保存することに重点を置いている。
彼らは、埋め込みがデータの相違点にできるだけ近いペアワイズ距離を持つように最適化する。
しかし、現在の標準はリーマン多様体への埋め込みに限られている。
埋め込み空間のリーマン計量における非対称性の欠如により、この論文は、MDS問題をフィンスラー多様体と呼ばれるリーマン多様体の自然な非対称一般化へと拡張する。
ユークリッド空間に着想を得て、非対称データを埋め込む正準フィンスラー空間を定義する。
測地学の単純さから、この空間のデータ表現は直感的で解析も簡単である。
我々は、我々の一般化が同じ理論収束保証から得られることを実証する。
各種非対称データへのフィンスラー埋め込みの有効性を明らかにするとともに,データ可視化,次元減少,有向グラフ埋め込み,リンク予測などのアプリケーションにおけるその価値を明らかにする。
関連論文リスト
- Score-based pullback Riemannian geometry [10.649159213723106]
本稿では,データ駆動型リーマン幾何学のフレームワークを提案する。
データサポートを通して高品質な測地学を作成し、データ多様体の固有次元を確実に推定する。
我々のフレームワークは、訓練中に等方性正規化を採用することで、自然に異方性正規化フローで使用することができる。
論文 参考訳(メタデータ) (2024-10-02T18:52:12Z) - Entropic Optimal Transport Eigenmaps for Nonlinear Alignment and Joint Embedding of High-Dimensional Datasets [11.105392318582677]
本稿では,理論的保証付きデータセットの整列と共同埋め込みの原理的アプローチを提案する。
提案手法は,2つのデータセット間のEOT計画行列の先頭特異ベクトルを利用して,それらの共通基盤構造を抽出する。
EOT計画では,高次元状態において,潜伏変数の位置で評価されたカーネル関数を近似することにより,共有多様体構造を復元する。
論文 参考訳(メタデータ) (2024-07-01T18:48:55Z) - Pulling back symmetric Riemannian geometry for data analysis [0.0]
データセットの理想的なデータ解析ツールは、非線形幾何学を考慮すべきである。
非線型幾何学を考慮に入れたリッチな数学的構造は、データ幾何学を捉えることができることが示されている。
ユークリッド空間のデータのために最初に開発された多くの標準的なデータ解析ツールは、対称リーマン多様体上のデータに効率的に一般化することができる。
論文 参考訳(メタデータ) (2024-03-11T10:59:55Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Oracle-Preserving Latent Flows [58.720142291102135]
我々はラベル付きデータセット全体にわたって複数の非自明な連続対称性を同時に発見するための方法論を開発する。
対称性変換と対応するジェネレータは、特別に構築された損失関数で訓練された完全連結ニューラルネットワークでモデル化される。
この研究における2つの新しい要素は、縮小次元の潜在空間の使用と、高次元のオラクルに関して不変な変換への一般化である。
論文 参考訳(メタデータ) (2023-02-02T00:13:32Z) - Laplacian-based Cluster-Contractive t-SNE for High Dimensional Data
Visualization [20.43471678277403]
本稿では t-SNE に基づく新しいグラフベース次元削減手法 LaptSNE を提案する。
具体的には、LaptSNEはグラフラプラシアンの固有値情報を利用して、低次元埋め込みにおけるポテンシャルクラスタを縮小する。
ラプラシアン合成目的による最適化を考える際には、より広い関心を持つであろう勾配を解析的に計算する方法を示す。
論文 参考訳(メタデータ) (2022-07-25T14:10:24Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Learning Flat Latent Manifolds with VAEs [16.725880610265378]
本稿では、ユークリッド計量がデータポイント間の類似性のプロキシとなる変分自動エンコーダのフレームワークの拡張を提案する。
我々は、変分オートエンコーダで一般的に使用されるコンパクトな以前のものを、最近発表されたより表現力のある階層型に置き換える。
提案手法は,ビデオ追跡ベンチマークを含む,さまざまなデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-02-12T09:54:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。