論文の概要: Towards Robust Nonlinear Subspace Clustering: A Kernel Learning Approach
- arxiv url: http://arxiv.org/abs/2501.06368v2
- Date: Mon, 20 Jan 2025 22:06:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:18:38.613905
- Title: Towards Robust Nonlinear Subspace Clustering: A Kernel Learning Approach
- Title(参考訳): ロバストな非線形サブスペースクラスタリングを目指して:カーネル学習アプローチ
- Authors: Kunpeng Xu, Lifei Chen, Shengrui Wang,
- Abstract要約: カーネルベースのサブスペースクラスタリングはデータの非線形構造に対処する。
本稿では、カーネル誘起非線形サブスペースクラスタリングのための新しいパラダイムであるDKLMを提案する。
- 参考スコア(独自算出の注目度): 6.4314326272535896
- License:
- Abstract: Kernel-based subspace clustering, which addresses the nonlinear structures in data, is an evolving area of research. Despite noteworthy progressions, prevailing methodologies predominantly grapple with limitations relating to (i) the influence of predefined kernels on model performance; (ii) the difficulty of preserving the original manifold structures in the nonlinear space; (iii) the dependency of spectral-type strategies on the ideal block diagonal structure of the affinity matrix. This paper presents DKLM, a novel paradigm for kernel-induced nonlinear subspace clustering. DKLM provides a data-driven approach that directly learns the kernel from the data's self-representation, ensuring adaptive weighting and satisfying the multiplicative triangle inequality constraint, which enhances the robustness of the learned kernel. By leveraging this learned kernel, DKLM preserves the local manifold structure of data in a nonlinear space while promoting the formation of an optimal block-diagonal affinity matrix. A thorough theoretical examination of DKLM reveals its relationship with existing clustering paradigms. Comprehensive experiments on synthetic and real-world datasets demonstrate the effectiveness of the proposed method.
- Abstract(参考訳): データ内の非線形構造に対処するカーネルベースのサブスペースクラスタリングは、研究の進化する領域である。
注目すべき進歩にも拘わらず、一般的な方法論は、主に制限を伴って波及している。
(i) モデル性能に対する事前定義されたカーネルの影響
(ii) 非線形空間における元の多様体構造を保存することの難しさ
3)親和性行列の理想的なブロック対角構造に対するスペクトル型戦略の依存性。
本稿では、カーネル誘起非線形サブスペースクラスタリングのための新しいパラダイムであるDKLMを提案する。
DKLMは、データの自己表現から直接カーネルを学習するデータ駆動型アプローチを提供し、適応的な重み付けを保証し、乗法的三角形の不等式制約を満たすことにより、学習されたカーネルの堅牢性を高める。
この学習されたカーネルを利用することで、DKLMは、最適なブロック対角親和性行列の形成を促進しながら、非線形空間におけるデータの局所多様体構造を保存する。
DKLMの徹底的な理論的検討は、既存のクラスタリングパラダイムとの関係を明らかにする。
合成および実世界のデータセットに関する総合的な実験により,提案手法の有効性が示された。
関連論文リスト
- Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Kernel Alignment for Unsupervised Feature Selection via Matrix Factorization [8.020732438595905]
教師なしの特徴選択は、いわゆる次元の呪いを和らげるために有効であることが証明されている。
多くの既存行列分解に基づく教師なし特徴選択法は、サブスペース学習に基づいて構築されている。
本稿では,カーネル関数とカーネルアライメントを統合したモデルを構築する。
これにより、線形および非線形の類似情報を学習し、最適なカーネルを自動的に生成することができる。
論文 参考訳(メタデータ) (2024-03-13T20:35:44Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - A Heat Diffusion Perspective on Geodesic Preserving Dimensionality
Reduction [66.21060114843202]
熱測地線埋め込みと呼ばれるより一般的な熱カーネルベースの多様体埋め込み法を提案する。
その結果,本手法は,地中真理多様体距離の保存において,既存の技術よりも優れていることがわかった。
また,連続体とクラスタ構造を併用した単一セルRNAシークエンシングデータセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-30T13:58:50Z) - Learning Structure Aware Deep Spectral Embedding [11.509692423756448]
本稿では, スペクトル埋込み損失と構造保存損失を組み合わせ, 深層スペクトルの埋込みを考慮した新しい構造解析手法を提案する。
両タイプの情報を同時に符号化し,構造認識型スペクトル埋め込みを生成するディープニューラルネットワークアーキテクチャを提案する。
提案アルゴリズムは,公開されている6つの実世界のデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-05-14T18:18:05Z) - Joint Embedding Self-Supervised Learning in the Kernel Regime [21.80241600638596]
自己教師付き学習(SSL)は、データを分類するためのラベルにアクセスすることなく、データの有用な表現を生成する。
我々はこのフレームワークを拡張し,カーネルの機能空間に作用する線形写像によって埋め込みを構築するカーネル手法に基づくアルゴリズムを組み込む。
カーネルモデルを小さなデータセットで分析し、自己教師付き学習アルゴリズムの共通特徴を特定し、下流タスクにおける性能に関する理論的洞察を得る。
論文 参考訳(メタデータ) (2022-09-29T15:53:19Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Beyond Linear Subspace Clustering: A Comparative Study of Nonlinear
Manifold Clustering Algorithms [22.564682739914424]
サブスペースクラスタリングは、教師なしクラスタリングの重要なアプローチである。
本稿では,最先端のアプローチを局所保存,カーネルベース,ニューラルネットワークの3つのカテゴリに分類する新しい分類法を提案する。
これらのアプローチの詳細な分析は、この分野の潜在的な研究の方向性と未解決の課題を広げます。
論文 参考訳(メタデータ) (2021-03-19T06:34:34Z) - Maximum Entropy Subspace Clustering Network [46.96462192586944]
最大エントロピー部分空間クラスタリングネットワーク(MESC-Net)という,ディープラーニングに基づくクラスタリング手法を提案する。
MESC-Netは学習された親和性行列のエントロピーを最大化し、理想的な親和性行列構造を示すように促す。
実験により,同じ部分空間に対応する要素が一様かつ高密度に分散していることが示され,クラスタリング性能が向上した。
論文 参考訳(メタデータ) (2020-12-06T03:50:49Z) - Robust Self-Supervised Convolutional Neural Network for Subspace
Clustering and Classification [0.10152838128195464]
本稿では,自己管理型畳み込みサブスペースクラスタリングネットワーク(S2$ConvSCN)のロバストな定式化を提案する。
真の教師なしのトレーニング環境では、Robust $S2$ConvSCNは、4つのよく知られたデータセットで見られるデータと見えないデータの両方に対して、ベースラインバージョンをかなり上回っている。
論文 参考訳(メタデータ) (2020-04-03T16:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。