論文の概要: Convergence and Recovery Guarantees of the K-Subspaces Method for
Subspace Clustering
- arxiv url: http://arxiv.org/abs/2206.05553v1
- Date: Sat, 11 Jun 2022 15:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 17:06:01.531774
- Title: Convergence and Recovery Guarantees of the K-Subspaces Method for
Subspace Clustering
- Title(参考訳): サブスペースクラスタリングのためのKサブスペース法の収束と回復保証
- Authors: Peng Wang, Huikang Liu, Anthony Man-Cho So, Laura Balzano
- Abstract要約: K-部分空間法(K-subspaces, KSS)は、K-means法を一般化した部分空間クラスタリング法である。
KSS法の初期割り当てが真のクラスタリングの近傍にある場合、超線型速度で収束することを示す。
- 参考スコア(独自算出の注目度): 33.1464583756714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The K-subspaces (KSS) method is a generalization of the K-means method for
subspace clustering. In this work, we present local convergence analysis and a
recovery guarantee for KSS, assuming data are generated by the semi-random
union of subspaces model, where $N$ points are randomly sampled from $K \ge 2$
overlapping subspaces. We show that if the initial assignment of the KSS method
lies within a neighborhood of a true clustering, it converges at a superlinear
rate and finds the correct clustering within $\Theta(\log\log N)$ iterations
with high probability. Moreover, we propose a thresholding inner-product based
spectral method for initialization and prove that it produces a point in this
neighborhood. We also present numerical results of the studied method to
support our theoretical developments.
- Abstract(参考訳): k-部分空間法(k-subspaces method)は、k-means法による部分空間クラスタリングの一般化である。
本研究では,局所収束解析と KSS の回復保証について,部分空間の半ランダム結合によってデータが生成されると仮定し,$N$ポイントを$K \ge 2$オーバーラップ部分空間からランダムにサンプリングする。
KSS法の初期割り当てが真のクラスタリングの近傍にある場合、それは超線型速度で収束し、高い確率で$\Theta(\log\log N)$イテレーション内で正しいクラスタリングを見つける。
さらに,初期化のためのしきい値内積に基づくスペクトル法を提案し,この近傍で点を生成することを証明した。
また, 理論的な発展を支援するため, 実験手法の数値計算結果も提示する。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - A Unified Framework for Center-based Clustering of Distributed Data [46.86543102499174]
我々は、ユーザのネットワーク上で動作する分散センターベースのクラスタリングアルゴリズムのファミリーを開発する。
私たちのフレームワークは、$K$-meansやHuber Losといった一般的なクラスタリング損失を含む、スムーズな凸損失関数の幅広いクラスを可能にします。
ブレグマン損失の特別の場合、固定点がロイド点の集合に収束することを示す。
論文 参考訳(メタデータ) (2024-02-02T10:44:42Z) - Adaptive Graph Convolutional Subspace Clustering [10.766537212211217]
スペクトル型サブスペースクラスタリングアルゴリズムは多くのサブスペースクラスタリングアプリケーションにおいて優れた性能を示している。
本稿では,グラフ畳み込みネットワークにヒントを得たグラフ畳み込み手法を用いて特徴抽出法と係数行列制約を同時に開発する。
AGCSCを用いることで、元のデータサンプルの集合的特徴表現がサブスペースクラスタリングに適していると主張する。
論文 参考訳(メタデータ) (2023-05-05T10:27:23Z) - Jacobian-Scaled K-means Clustering for Physics-Informed Segmentation of Reacting Flows [0.0]
JSK-meansクラスタリング(JSK-means clustering)は、K-meansフレームワークを中心とした物理インフォームされたクラスタリング戦略である。
このアルゴリズムは複雑な反応流シミュレーションデータセット上で実証される。
論文 参考訳(メタデータ) (2023-05-02T15:47:18Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Perfect Spectral Clustering with Discrete Covariates [68.8204255655161]
本稿では,大規模なスパースネットワークのクラスにおいて,高い確率で完全クラスタリングを実現するスペクトルアルゴリズムを提案する。
本手法は,スペクトルクラスタリングによる一貫した潜在構造回復を保証する最初の方法である。
論文 参考訳(メタデータ) (2022-05-17T01:41:06Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Distribution free optimality intervals for clustering [1.7513645771137178]
データ$mathcalD$と、これらのデータのパーティション$mathcalC$を$K$クラスタにすると、得られたクラスタがデータに対して正しい、あるいは有意義なものであると言えますか?
本稿では,K-means歪みなどの損失関数に関して,クラスタリング$mathcalC$が有意義であると考えられるパラダイムを紹介した。
論文 参考訳(メタデータ) (2021-07-30T06:13:56Z) - Weighted Sparse Subspace Representation: A Unified Framework for
Subspace Clustering, Constrained Clustering, and Active Learning [0.3553493344868413]
まず,近距離点の疎凸結合として各点を表現しようとするスペクトルに基づく新しい部分空間クラスタリングアルゴリズムを提案する。
次に、アルゴリズムを制約付きクラスタリングとアクティブな学習設定に拡張します。
このようなフレームワークを開発する動機は、通常、少量のラベル付きデータが事前に利用可能であるという事実や、いくつかのポイントをコストでラベル付けできるという事実に起因しています。
論文 参考訳(メタデータ) (2021-06-08T13:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。