論文の概要: Dimensionality Reduction on Riemannian Manifolds in Data Analysis
- arxiv url: http://arxiv.org/abs/2602.05936v1
- Date: Thu, 05 Feb 2026 17:46:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.096809
- Title: Dimensionality Reduction on Riemannian Manifolds in Data Analysis
- Title(参考訳): データ解析におけるリーマン多様体の次元化
- Authors: Alaa El Ichi, Khalide Jbilou,
- Abstract要約: 実験の結果, ユークリッドに比べて表現品質と分類性能が向上した。
本研究は,現代の機械学習およびデータサイエンス応用における幾何学的認知次元減少の重要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we investigate Riemannian geometry based dimensionality reduction methods that respect the underlying manifold structure of the data. In particular, we focus on Principal Geodesic Analysis (PGA) as a nonlinear generalization of PCA for manifold valued data, and extend discriminant analysis through Riemannian adaptations of other known dimensionality reduction methods. These approaches exploit geodesic distances, tangent space representations, and intrinsic statistical measures to achieve more faithful low dimensional embeddings. We also discuss related manifold learning techniques and highlight their theoretical foundations and practical advantages. Experimental results on representative datasets demonstrate that Riemannian methods provide improved representation quality and classification performance compared to their Euclidean counterparts, especially for data constrained to curved spaces such as hyperspheres and symmetric positive definite manifolds. This study underscores the importance of geometry aware dimensionality reduction in modern machine learning and data science applications.
- Abstract(参考訳): 本研究では,データの基本多様体構造を尊重するリーマン幾何学に基づく次元減少法について検討する。
特に、多様体値データに対するPCAの非線形一般化としての主測地線解析(PGA)に注目し、他の既知の次元減少法のリーマン適応による識別分析を拡張した。
これらのアプローチは、より忠実な低次元埋め込みを達成するために測地線距離、接空間表現、本質的な統計測度を利用する。
また、関連する多様体学習技術についても論じ、理論的基礎と実践的優位性を強調した。
代表的データセットに対する実験結果は、特に超球面や対称正定値多様体のような曲線空間に制約されたデータに対して、リーマン法がユークリッド法と比較して表現品質と分類性能の改善をもたらすことを示した。
本研究は,現代の機械学習およびデータサイエンス応用における幾何学的認知次元減少の重要性を浮き彫りにしている。
関連論文リスト
- Riemannian Principal Component Analysis [0.0]
本稿では,従来のユークリッド空間におけるデータの仮定を超越した,主成分分析(PCA)の革新的拡張を提案する。
局所測度を含むようにPCAを適用し、多様体幾何を組み込むことができる。
論文 参考訳(メタデータ) (2025-05-30T21:04:01Z) - Follow the Energy, Find the Path: Riemannian Metrics from Energy-Based Models [63.331590876872944]
本稿では,事前学習したエネルギーベースモデルから直接リーマン計量を導出する手法を提案する。
これらの測度は空間的に異なる距離を定義し、測地学の計算を可能にする。
EBM由来のメトリクスは、確立されたベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-05-23T12:18:08Z) - IIKL: Isometric Immersion Kernel Learning with Riemannian Manifold for Geometric Preservation [15.82760919569542]
これまでの研究は、非ユークリッドデータを表現学習中にユークリッド空間にマッピングしていた。
本稿では,Isometric Immersion Kernel Learning (IIKL)法を提案する。
本手法は,最先端手法と比較して内積不変損失を90%以上削減できることを示した。
論文 参考訳(メタデータ) (2025-05-07T12:08:33Z) - Finsler Multi-Dimensional Scaling: Manifold Learning for Asymmetric Dimensionality Reduction and Embedding [41.601022263772535]
次元化の削減は、データ分析や可視化における中心的な応用とともに、重要なパターンを保ちながら、特徴的次元を減らし、複雑なデータを単純化することを目的としている。
基礎となるデータ構造を維持するため、多次元スケーリング(MDS)法は距離などの対等な相似性を保存することに重点を置いている。
論文 参考訳(メタデータ) (2025-03-23T10:03:22Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - A Heat Diffusion Perspective on Geodesic Preserving Dimensionality
Reduction [66.21060114843202]
熱測地線埋め込みと呼ばれるより一般的な熱カーネルベースの多様体埋め込み法を提案する。
その結果,本手法は,地中真理多様体距離の保存において,既存の技術よりも優れていることがわかった。
また,連続体とクラスタ構造を併用した単一セルRNAシークエンシングデータセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-30T13:58:50Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Spherical Rotation Dimension Reduction with Geometric Loss Functions [0.0]
そのようなデータセットの第一の例は細胞周期の測定の集まりであり、そこではプロセスの本質的に循環的な性質を円や球として表すことができる。
幾何学的情報を組み込んだ非線形次元減少法である球状回転成分分析(SRCA)を提案し,より近似的な低次元多様体を提案する。
論文 参考訳(メタデータ) (2022-04-23T02:03:55Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。