論文の概要: Adaptively Robust and Sparse K-means Clustering
- arxiv url: http://arxiv.org/abs/2407.06945v1
- Date: Tue, 9 Jul 2024 15:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 17:37:36.950479
- Title: Adaptively Robust and Sparse K-means Clustering
- Title(参考訳): 適応ロバストとスパースK平均クラスタリング
- Authors: Hao Li, Shonosuke Sugasawa, Shota Katayama,
- Abstract要約: 本稿では,標準的なK-meansアルゴリズムのこれらの実用的限界に対処するため,適応的に頑健でスパースなK-meansクラスタリング(ARSK)を提案する。
本稿では,ロバスト性に対する各観測値に対して冗長な誤差成分を導入し,グループスパースペナルティを用いて追加パラメータをペナルティ化する。
高次元ノイズ変数の影響に対応するために、重みを取り入れ、重みベクトルの空間性を制御するペナルティを実装することにより、目的関数を変更する。
- 参考スコア(独自算出の注目度): 5.535948428518607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While K-means is known to be a standard clustering algorithm, it may be compromised due to the presence of outliers and high-dimensional noisy variables. This paper proposes adaptively robust and sparse K-means clustering (ARSK) to address these practical limitations of the standard K-means algorithm. We introduce a redundant error component for each observation for robustness, and this additional parameter is penalized using a group sparse penalty. To accommodate the impact of high-dimensional noisy variables, the objective function is modified by incorporating weights and implementing a penalty to control the sparsity of the weight vector. The tuning parameters to control the robustness and sparsity are selected by Gap statistics. Through simulation experiments and real data analysis, we demonstrate the superiority of the proposed method to existing algorithms in identifying clusters without outliers and informative variables simultaneously.
- Abstract(参考訳): K-平均は標準的なクラスタリングアルゴリズムとして知られているが、外れ値と高次元ノイズ変数の存在により妥協される可能性がある。
本稿では,標準的なK-meansアルゴリズムのこれらの実用的限界に対処するため,適応的に頑健でスパースなK-meansクラスタリング(ARSK)を提案する。
本稿では,ロバスト性に対する各観測値に対して冗長な誤差成分を導入し,グループスパースペナルティを用いて追加パラメータをペナルティ化する。
高次元ノイズ変数の影響に対応するために、重みを取り入れ、重みベクトルの空間性を制御するペナルティを実装することにより、目的関数を変更する。
Gap統計により、ロバスト性や空間性を制御するためのチューニングパラメータが選択される。
シミュレーション実験と実データ解析により,外部変数と情報変数を同時に含まないクラスタの同定において,提案手法の既存アルゴリズムに対する優位性を実証した。
関連論文リスト
- Fuzzy K-Means Clustering without Cluster Centroids [79.19713746387337]
ファジィK平均クラスタリングは教師なしデータ解析において重要な計算手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィK平均クラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Wireless Federated $k$-Means Clustering with Non-coherent Over-the-Air
Computation [14.087062902871212]
OACスキームは、バランスの取れた数系における数値の表現を利用するエンコーダに依存している。
非効率なセンチロイドの再初期化法を提案し、不均一なデータ分散のための提案手法の性能を向上させる。
論文 参考訳(メタデータ) (2023-08-11T20:12:26Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - CKmeans and FCKmeans : Two deterministic initialization procedures for
Kmeans algorithm using a modified crowding distance [0.0]
K平均クラスタリングのための2つの新しい決定論的手順を示す。
CKmeans と FCKmeans という名前の手順は、より混雑した点を初期セントロイドとして使用する。
複数のデータセットに関する実験的研究により、提案手法がクラスタリング精度においてKmeansとKmeans++より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-19T21:46:02Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Spatial Transformer K-Means [16.775789494555017]
複雑なデータ埋め込みは、$K$-meansのパフォーマンスをプッシュするように設計されている。
非剛体変換に不変な類似度尺度で固有データ空間の保存とK平均の増大を提案する。
論文 参考訳(メタデータ) (2022-02-16T02:25:46Z) - Weight Vector Tuning and Asymptotic Analysis of Binary Linear
Classifiers [82.5915112474988]
本稿では,スカラーによる判別器の分解をパラメータ化することで,ジェネリックバイナリ線形分類器の重みベクトルチューニングを提案する。
また,重みベクトルチューニングは,高推定雑音下での線形判別分析(LDA)の性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-10-01T17:50:46Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Decorrelated Clustering with Data Selection Bias [55.91842043124102]
本稿では,データ選択バイアスを伴うクラスタリングのためのデコリレーション正規化K-Meansアルゴリズム(DCKM)を提案する。
DCKMアルゴリズムは,選択バイアスによって生じる予期せぬ特徴相関を除去する必要があることを示す。
論文 参考訳(メタデータ) (2020-06-29T08:55:50Z) - A Compressive Classification Framework for High-Dimensional Data [12.284934135116515]
本稿では,データ次元がサンプルサイズよりもかなり高い設定のための圧縮分類フレームワークを提案する。
提案手法は線形判別分析に基づく正規化判別分析(CRDA)と呼ばれる。
識別規則における強しきい値化を促進するジョイントスパーシティを用いることで、重要な特徴を選択できる。
論文 参考訳(メタデータ) (2020-05-09T06:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。