論文の概要: K-Splits: Improved K-Means Clustering Algorithm to Automatically Detect
the Number of Clusters
- arxiv url: http://arxiv.org/abs/2110.04660v1
- Date: Sat, 9 Oct 2021 23:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 16:06:41.551240
- Title: K-Splits: Improved K-Means Clustering Algorithm to Automatically Detect
the Number of Clusters
- Title(参考訳): K-Splits: クラスタ数の自動検出のための改良K-Meansクラスタリングアルゴリズム
- Authors: Seyed Omid Mohammadi, Ahmad Kalhor, Hossein Bodaghi (University of
Tehran, College of Engineering, School of Electrical and Computer
Engineering, Tehran, Iran)
- Abstract要約: 本稿では,k-meansに基づく改良された階層型アルゴリズムであるk-splitsを紹介する。
提案手法の主な利点は,精度と速度である。
- 参考スコア(独自算出の注目度): 0.12313056815753944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces k-splits, an improved hierarchical algorithm based on
k-means to cluster data without prior knowledge of the number of clusters.
K-splits starts from a small number of clusters and uses the most significant
data distribution axis to split these clusters incrementally into better fits
if needed. Accuracy and speed are two main advantages of the proposed method.
We experiment on six synthetic benchmark datasets plus two real-world datasets
MNIST and Fashion-MNIST, to prove that our algorithm has excellent accuracy in
finding the correct number of clusters under different conditions. We also show
that k-splits is faster than similar methods and can even be faster than the
standard k-means in lower dimensions. Finally, we suggest using k-splits to
uncover the exact position of centroids and then input them as initial points
to the k-means algorithm to fine-tune the results.
- Abstract(参考訳): 本稿では,クラスタ数を事前に知ることなく,クラスタデータに対するk-meansに基づく階層的アルゴリズムであるk-splitsを提案する。
K-splitsは少数のクラスタから始まり、最も重要なデータ分散軸を使用して、必要に応じてクラスタを段階的に適切なものに分割する。
提案手法の主な利点は, 精度と速度である。
6つのベンチマークデータセットと2つの実世界のデータセットであるmnistとfashion-mnistを実験し、異なる条件下でのクラスタ数を求めるのに優れた精度を示す。
また,k-splitsは類似の手法よりも高速であり,低次元の標準k-meansよりも高速であることを示す。
最後に,k-splits を用いてセントロイドの位置を正確に把握し,k-means アルゴリズムの初期点として入力し,結果を微調整することを提案する。
関連論文リスト
- Accelerating k-Means Clustering with Cover Trees [0.30693357740321775]
表木指数に基づく新しいk-meansアルゴリズムを提案し, オーバーヘッドが比較的低く, 性能も良好である。
木集約と境界に基づくフィルタリングの利点を組み合わせたハイブリッドアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-10-19T14:02:42Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Linear time Evidence Accumulation Clustering with KMeans [0.0]
この研究は、平均的なリンククラスタリングの振る舞いを模倣するトリックを記述する。
分割の密度を効率よく計算する方法を見つけ、二次的な複雑さから線形的な複雑さへのコストを削減した。
k平均結果は、計算コストを低く保ちながら、NMIの観点からは、最先端の技術に匹敵する。
論文 参考訳(メタデータ) (2023-11-15T14:12:59Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - An enhanced method of initial cluster center selection for K-means
algorithm [0.0]
K-meansアルゴリズムの初期クラスタ選択を改善するための新しい手法を提案する。
Convex Hullアルゴリズムは、最初の2つのセントロイドの計算を容易にし、残りの2つは、以前選択された中心からの距離に応じて選択される。
We obtained only 7.33%, 7.90%, and 0% clustering error in Iris, Letter, and Ruspini data。
論文 参考訳(メタデータ) (2022-10-18T00:58:50Z) - ck-means, a novel unsupervised learning method that combines fuzzy and
crispy clustering methods to extract intersecting data [1.827510863075184]
本稿では,2つの特徴以上の共通点を共有するデータをクラスタリングする手法を提案する。
この手法の主な考え方は、ファジィ C-Means (FCM) アルゴリズムを用いてファジィクラスタを生成することである。
このアルゴリズムはまた、シルエット指数(SI)によって与えられるクラスタの一貫性に従って、FCMとk平均アルゴリズムのための最適なクラスタ数を見つけることができる。
論文 参考訳(メタデータ) (2022-06-17T19:29:50Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Ball k-means [53.89505717006118]
Ball k-meansアルゴリズムは、ポイントセントロイド距離計算の削減に集中して、クラスタを記述するためにボールを使用する。
高速、余分なパラメータなし、単純設計のボールk平均アルゴリズムは、素早いk平均アルゴリズムを全面的に置き換える。
論文 参考訳(メタデータ) (2020-05-02T10:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。