論文の概要: Orthogonal Subspace Clustering: Enhancing High-Dimensional Data Analysis through Adaptive Dimensionality Reduction and Efficient Clustering
- arxiv url: http://arxiv.org/abs/2603.14783v1
- Date: Mon, 16 Mar 2026 03:30:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.031859
- Title: Orthogonal Subspace Clustering: Enhancing High-Dimensional Data Analysis through Adaptive Dimensionality Reduction and Efficient Clustering
- Title(参考訳): 直交部分空間クラスタリング:適応次元化と効率的なクラスタリングによる高次元データ解析の強化
- Authors: Qing-Yuan Wen, Da-Qing Zhang,
- Abstract要約: 我々は,高次元データクラスタリングの革新的な手法であるOrthogonal Subspace Clustering (OSC)を提案する。
OSCは直交部分空間構築と古典的なクラスタリング技術を統合している。
クラスタリングの効率、堅牢性、正確性を大幅に改善します。
- 参考スコア(独自算出の注目度): 1.6936594801109557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Orthogonal Subspace Clustering (OSC), an innovative method for high-dimensional data clustering. We first establish a theoretical theorem proving that high-dimensional data can be decomposed into orthogonal subspaces in a statistical sense, whose form exactly matches the paradigm of Q-type factor analysis. This theorem lays a solid mathematical foundation for dimensionality reduction via matrix decomposition and factor analysis. Based on this theorem, we propose the OSC framework to address the "curse of dimensionality" -- a critical challenge that degrades clustering effectiveness due to sample sparsity and ineffective distance metrics. OSC integrates orthogonal subspace construction with classical clustering techniques, introducing a data-driven mechanism to select the subspace dimension based on cumulative variance contribution. This avoids manual selection biases while maximizing the retention of discriminative information. By projecting high-dimensional data into an uncorrelated, low-dimensional orthogonal subspace, OSC significantly improves clustering efficiency, robustness, and accuracy. Extensive experiments on various benchmark datasets demonstrate the effectiveness of OSC, with thorough analysis of evaluation metrics including Cluster Accuracy (ACC), Normalized Mutual Information (NMI), and Adjusted Rand Index (ARI) highlighting its advantages over existing methods.
- Abstract(参考訳): 本稿では,高次元データクラスタリングの革新的な手法であるOrthogonal Subspace Clustering (OSC)を提案する。
まず、高次元データを統計的意味で直交部分空間に分解できることを示す理論定理を確立し、その形式はQ型因子分析のパラダイムと正確に一致する。
この定理は、行列分解と因子解析による次元減少のための固い数学的基礎を定めている。
この定理に基づき, サンプル間隔と非効率距離測定値によるクラスタリングの有効性を低下させる重要な課題である「次元の曲線」に対処するOSCフレームワークを提案する。
OSCは、直交部分空間構築と古典的なクラスタリング手法を統合し、累積分散コントリビューションに基づいた部分空間次元を選択するためのデータ駆動機構を導入する。
これにより、識別情報の保持を最大化しながら、手作業による選択バイアスを回避することができる。
高次元データを非相関で低次元の直交部分空間に投影することにより、OSCはクラスタリング効率、堅牢性、精度を大幅に改善する。
クラスタ精度(ACC)、正規化相互情報(NMI)、調整ランダムインデックス(ARI)などの評価指標を徹底的に分析することで、OSCの有効性が示されている。
関連論文リスト
- Subspace Clustering of Subspaces: Unifying Canonical Correlation Analysis and Subspace Clustering [26.936899997676264]
本稿では,列空間に基づく背の高い行列の集合をクラスタリングするための新しいフレームワークを提案する。
我々の定式化は、各データサンプルを行列として直接モデル化し、それらの下位部分空間に従ってそれらをクラスタ化する。
実世界のハイパースペクトル画像データセットを用いた実験により,本手法はクラスタリング精度とロバスト性に優れることを示した。
論文 参考訳(メタデータ) (2025-09-23T05:12:40Z) - Hyperbolic Fuzzy C-Means with Adaptive Weight-based Filtering for Efficient Clustering [14.904264782690639]
Fuzzy $C$-Means (FCM) アルゴリズムは、非ユークリッド空間において顕著な制限を示す。
HypeFCMはファジィクラスタリングの原理と双曲幾何学を統合する。
HypeFCMは、非ユークリッド環境で従来のファジィクラスタリング法よりも大幅に優れている。
論文 参考訳(メタデータ) (2025-05-07T11:32:53Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Sampling-enabled scalable manifold learning unveils the discriminative cluster structure of high-dimensional data [17.411028691739897]
大規模・高次元データに対して一様および識別的埋め込み(SUDE)を可能にする,サンプリングベースでスケーラブルな多様体学習手法を提案する。
合成データセットと実世界のベンチマークにおけるSUDEの有効性を実証的に検証し, 単細胞データの解析と心電図信号の異常検出に応用した。
論文 参考訳(メタデータ) (2024-01-02T08:43:06Z) - CCP: Correlated Clustering and Projection for Dimensionality Reduction [5.992724190105578]
Correlated Clustering and Projectionは、マトリックスを解決する必要のない、新しいデータドメイン戦略を提供する。
CCPは、高次元の機能を相関クラスタに分割し、各クラスタの相関した機能を1次元の表現に分割する。
提案手法は、さまざまな機械学習アルゴリズムに関連するベンチマークデータセットを用いて検証される。
論文 参考訳(メタデータ) (2022-06-08T23:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。