論文の概要: Adaptively Robust and Sparse K-means Clustering
- arxiv url: http://arxiv.org/abs/2407.06945v2
- Date: Thu, 07 Nov 2024 15:02:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-09 00:48:51.601649
- Title: Adaptively Robust and Sparse K-means Clustering
- Title(参考訳): 適応ロバストとスパースK平均クラスタリング
- Authors: Hao Li, Shonosuke Sugasawa, Shota Katayama,
- Abstract要約: 本稿では,標準的なK-meansアルゴリズムのこれらの実用的限界に対処するため,適応的に頑健でスパースなK-meansクラスタリング(ARSK)を提案する。
頑健性のために,各観測値に冗長な誤差成分を導入し,グループスパースペナルティを用いて追加パラメータをペナルティ化する。
高次元ノイズ変数の影響に対応するために、重みを取り入れ、重みベクトルの空間性を制御するペナルティを実装することにより、目的関数を変更する。
- 参考スコア(独自算出の注目度): 5.535948428518607
- License:
- Abstract: While K-means is known to be a standard clustering algorithm, its performance may be compromised due to the presence of outliers and high-dimensional noisy variables. This paper proposes adaptively robust and sparse K-means clustering (ARSK) to address these practical limitations of the standard K-means algorithm. For robustness, we introduce a redundant error component for each observation, and this additional parameter is penalized using a group sparse penalty. To accommodate the impact of high-dimensional noisy variables, the objective function is modified by incorporating weights and implementing a penalty to control the sparsity of the weight vector. The tuning parameters to control the robustness and sparsity are selected by Gap statistics. Through simulation experiments and real data analysis, we demonstrate the proposed method's superiority to existing algorithms in identifying clusters without outliers and informative variables simultaneously.
- Abstract(参考訳): K平均は標準的なクラスタリングアルゴリズムとして知られているが、その性能は外れ値と高次元ノイズ変数の存在によって損なわれる可能性がある。
本稿では,標準的なK-meansアルゴリズムのこれらの実用的限界に対処するため,適応的に頑健でスパースなK-meansクラスタリング(ARSK)を提案する。
頑健性のために,各観測値に冗長な誤差成分を導入し,グループスパースペナルティを用いて追加パラメータをペナルティ化する。
高次元ノイズ変数の影響に対応するために、重みを取り入れ、重みベクトルの空間性を制御するペナルティを実装することにより、目的関数を変更する。
Gap統計により、ロバスト性や空間性を制御するためのチューニングパラメータが選択される。
シミュレーション実験と実データ解析により,外部変数と情報変数を同時に含まないクラスタの同定において,提案手法が既存のアルゴリズムよりも優れていることを示す。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Unsupervised Machine Learning to Classify the Confinement of Waves in
Periodic Superstructures [0.0]
我々は教師なし機械学習を用いて、最近提示した波動閉じ込め解析のスケーリング手法の精度を向上させる。
我々は、標準のk-means++アルゴリズムと、独自のモデルベースアルゴリズムを採用する。
クラスタリング手法はより物理的に意味のある結果をもたらすが、正しい閉じ込め次元の集合を特定するのに苦労する可能性がある。
論文 参考訳(メタデータ) (2023-04-24T08:22:01Z) - CKmeans and FCKmeans : Two deterministic initialization procedures for
Kmeans algorithm using a modified crowding distance [0.0]
K平均クラスタリングのための2つの新しい決定論的手順を示す。
CKmeans と FCKmeans という名前の手順は、より混雑した点を初期セントロイドとして使用する。
複数のデータセットに関する実験的研究により、提案手法がクラスタリング精度においてKmeansとKmeans++より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-19T21:46:02Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Spatial Transformer K-Means [16.775789494555017]
複雑なデータ埋め込みは、$K$-meansのパフォーマンスをプッシュするように設計されている。
非剛体変換に不変な類似度尺度で固有データ空間の保存とK平均の増大を提案する。
論文 参考訳(メタデータ) (2022-02-16T02:25:46Z) - Weight Vector Tuning and Asymptotic Analysis of Binary Linear
Classifiers [82.5915112474988]
本稿では,スカラーによる判別器の分解をパラメータ化することで,ジェネリックバイナリ線形分類器の重みベクトルチューニングを提案する。
また,重みベクトルチューニングは,高推定雑音下での線形判別分析(LDA)の性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-10-01T17:50:46Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Decorrelated Clustering with Data Selection Bias [55.91842043124102]
本稿では,データ選択バイアスを伴うクラスタリングのためのデコリレーション正規化K-Meansアルゴリズム(DCKM)を提案する。
DCKMアルゴリズムは,選択バイアスによって生じる予期せぬ特徴相関を除去する必要があることを示す。
論文 参考訳(メタデータ) (2020-06-29T08:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。