論文の概要: Multi-Prototypes Convex Merging Based K-Means Clustering Algorithm
- arxiv url: http://arxiv.org/abs/2302.07045v1
- Date: Tue, 14 Feb 2023 13:57:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 15:27:46.482139
- Title: Multi-Prototypes Convex Merging Based K-Means Clustering Algorithm
- Title(参考訳): マルチプロトタイプコンベックスマージに基づくK平均クラスタリングアルゴリズム
- Authors: Dong Li, Shuisheng Zhou, Tieyong Zeng, and Raymond H. Chan
- Abstract要約: マルチプロトタイプの凸マージに基づくK-Meansクラスタリングアルゴリズム(MCKM)を提案する。
MCKM は K-Means 問題の望ましくない局所最小値から k を優先せずに逃れるための効率的で説明可能なクラスタリングアルゴリズムである。
- 参考スコア(独自算出の注目度): 20.341309224377866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: K-Means algorithm is a popular clustering method. However, it has two
limitations: 1) it gets stuck easily in spurious local minima, and 2) the
number of clusters k has to be given a priori. To solve these two issues, a
multi-prototypes convex merging based K-Means clustering algorithm (MCKM) is
presented. First, based on the structure of the spurious local minima of the
K-Means problem, a multi-prototypes sampling (MPS) is designed to select the
appropriate number of multi-prototypes for data with arbitrary shapes. A
theoretical proof is given to guarantee that the multi-prototypes selected by
MPS can achieve a constant factor approximation to the optimal cost of the
K-Means problem. Then, a merging technique, called convex merging (CM), merges
the multi-prototypes to get a better local minima without k being given a
priori. Specifically, CM can obtain the optimal merging and estimate the
correct k. By integrating these two techniques with K-Means algorithm, the
proposed MCKM is an efficient and explainable clustering algorithm for escaping
the undesirable local minima of K-Means problem without given k first.
Experimental results performed on synthetic and real-world data sets have
verified the effectiveness of the proposed algorithm.
- Abstract(参考訳): K-Meansアルゴリズムは一般的なクラスタリング手法である。
しかし、2つの制限がある。
1)スプリアス・ローカル・ミニマ(sprious local minima)に容易に定着し,
2) クラスター k の個数は事前に与えなければならない。
これらの問題を解決するために,マルチプロトタイプ凸結合型k-meansクラスタリングアルゴリズム(mckm)を提案する。
まず,k-means問題におけるスプリアス局所的ミニマの構造に基づき,任意の形状のデータに対して適切な数のマルチプロトタイプを選択できるマルチプロトタイプサンプリング(mps)を考案した。
mps によって選択されたマルチプロトタイプが k-平均問題の最適コストに対する定数因子近似を実現できることを保証するために理論的証明が与えられる。
次に、コンベックスマージ(cm)と呼ばれるマージテクニックがマルチプロトタイプをマージし、kを前もって与えずにより良い局所ミニマを得る。
具体的には、cmは最適なマージと正しいkを推定することができる。
これら2つの手法をK-Meansアルゴリズムと統合することにより、提案したMCKMはK-Means問題の望ましくない局所最小化をkを優先せずに回避するための効率的かつ説明可能なクラスタリングアルゴリズムである。
合成データと実世界のデータを用いた実験により,提案アルゴリズムの有効性が検証された。
関連論文リスト
- Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Linear time Evidence Accumulation Clustering with KMeans [0.0]
この研究は、平均的なリンククラスタリングの振る舞いを模倣するトリックを記述する。
分割の密度を効率よく計算する方法を見つけ、二次的な複雑さから線形的な複雑さへのコストを削減した。
k平均結果は、計算コストを低く保ちながら、NMIの観点からは、最先端の技術に匹敵する。
論文 参考訳(メタデータ) (2023-11-15T14:12:59Z) - On the Global Solution of Soft k-Means [159.23423824953412]
本稿では,ソフトk-平均問題の解法を全世界で提案する。
ミニマルボリュームソフトkMeans (MVSkM) と呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2022-12-07T12:06:55Z) - An enhanced method of initial cluster center selection for K-means
algorithm [0.0]
K-meansアルゴリズムの初期クラスタ選択を改善するための新しい手法を提案する。
Convex Hullアルゴリズムは、最初の2つのセントロイドの計算を容易にし、残りの2つは、以前選択された中心からの距離に応じて選択される。
We obtained only 7.33%, 7.90%, and 0% clustering error in Iris, Letter, and Ruspini data。
論文 参考訳(メタデータ) (2022-10-18T00:58:50Z) - k-MS: A novel clustering algorithm based on morphological reconstruction [0.0]
k-MSは最悪の場合、CPU並列k-Meansよりも高速である。
また、ミトーシスやTRICLUSTのような密度や形状に敏感な類似のクラスター化法よりも高速である。
論文 参考訳(メタデータ) (2022-08-30T16:55:21Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - An Efficient Smoothing Proximal Gradient Algorithm for Convex Clustering [2.5182813818441945]
最近導入された凸クラスタリング手法は、凸最適化問題としてクラスタリングを定式化している。
最先端の凸クラスタリングアルゴリズムは大規模な計算とメモリ空間を必要とする。
本稿では,凸クラスタリングのための非常に効率的なスムーズな勾配法 (Sproga) を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:59Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。