論文の概要: Improving The Performance Of The K-means Algorithm
- arxiv url: http://arxiv.org/abs/2005.04689v1
- Date: Sun, 10 May 2020 15:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 01:28:19.091160
- Title: Improving The Performance Of The K-means Algorithm
- Title(参考訳): k-meansアルゴリズムの性能向上
- Authors: Tien-Dung Nguyen
- Abstract要約: 私の論文では、クラスタリング結果の質を概ね保ちながら、IKMを高速化する2つのアルゴリズムを提案している。
最初のアルゴリズムはDivisive K-meansと呼ばれ、クラスタの分割プロセスを高速化することでIKMの速度を改善する。
2つ目のアルゴリズムはPar2PK-means(Par2PK-means)と呼ばれ、Two-Phase K-meansモデルを用いてIKMを並列化する。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Incremental K-means (IKM), an improved version of K-means (KM), was
introduced to improve the clustering quality of KM significantly. However, the
speed of IKM is slower than KM. My thesis proposes two algorithms to speed up
IKM while remaining the quality of its clustering result approximately. The
first algorithm, called Divisive K-means, improves the speed of IKM by speeding
up its splitting process of clusters. Testing with UCI Machine Learning data
sets, the new algorithm achieves the empirically global optimum as IKM and has
lower complexity, $O(k*log_{2}k*n)$, than IKM, $O(k^{2}n)$. The second
algorithm, called Parallel Two-Phase K-means (Par2PK-means), parallelizes IKM
by employing the model of Two-Phase K-means. Testing with large data sets, this
algorithm attains a good speedup ratio, closing to the linearly speed-up ratio.
- Abstract(参考訳): k-means(km)の改良版であるインクリメンタルk-means(ikm)はkmのクラスタリング品質を大幅に改善するために導入された。
しかし、IKMの速度はKMよりも遅い。
私の論文では、クラスタリング結果の質を概ね保ちながら、IKMを高速化する2つのアルゴリズムを提案する。
最初のアルゴリズムはDivisive K-meansと呼ばれ、クラスタの分割プロセスを高速化することでIKMの速度を改善する。
UCI Machine Learningデータセットを用いてテストすると、新しいアルゴリズムはIKMとして経験的にグローバルな最適化を達成し、IKMより低い複雑さ、$O(k*log_{2}k*n)$、$O(k^{2}n)$である。
2つ目のアルゴリズムはPar2PK-means(Par2PK-means)と呼ばれ、Two-Phase K-meansモデルを用いてIKMを並列化する。
大規模なデータセットを用いてテストすると、このアルゴリズムは線形スピードアップ比に閉ざされた良好なスピードアップ比が得られる。
関連論文リスト
- Imbalanced Data Clustering using Equilibrium K-Means [1.0878040851638]
平衡 K-平均 (EKM) は、単純な K-平均型アルゴリズムである。
EKMは、センチロイドの群集傾向を減少させることにより、不均衡なデータのクラスタリング結果を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-22T12:27:38Z) - IDKM: Memory Efficient Neural Network Quantization via Implicit,
Differentiable k-Means [20.13045791225961]
本稿では,DKMのメモリ制限を解消する暗黙的で微分可能な$k$-meansアルゴリズム(IDKM)を提案する。
我々はIDKMがDKMに匹敵する性能を達成できることを示す。
また、DKMが全くトレーニングできないハードウェア上で、IDKMとIDKM-JFBを使用して、大規模なニューラルネットワークであるResnet18を定量化しています。
論文 参考訳(メタデータ) (2023-12-12T22:02:57Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Careful seeding for the k-medoids algorithm with incremental k++ cluster
construction [4.981260380070016]
k-medoidsアルゴリズム(INCKM)が最近提案され、この欠点を克服した。
本稿では,クラスタ数を動的に増加させる新しいk-medoidsアルゴリズム(INCKPP)を提案する。
提案アルゴリズムは,改良されたk-メロイドアルゴリズムのパラメータ選択問題を克服し,クラスタリング性能を向上し,不均衡なデータセットをうまく処理することができる。
論文 参考訳(メタデータ) (2022-07-06T02:25:35Z) - K-Splits: Improved K-Means Clustering Algorithm to Automatically Detect
the Number of Clusters [0.12313056815753944]
本稿では,k-meansに基づく改良された階層型アルゴリズムであるk-splitsを紹介する。
提案手法の主な利点は,精度と速度である。
論文 参考訳(メタデータ) (2021-10-09T23:02:57Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Exact Acceleration of K-Means++ and K-Means$\|$ [22.66983713481359]
K-Means++とK-Means$|$はK-meansの初期種を選択するデファクトツールとなっている。
我々は、K-Means++とK-Means$|$の最初のアクセラレーションを示すために、特殊三角不等式プルーニング戦略と動的優先度待ち行列を開発する。
論文 参考訳(メタデータ) (2021-05-06T20:22:55Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Ball k-means [53.89505717006118]
Ball k-meansアルゴリズムは、ポイントセントロイド距離計算の削減に集中して、クラスタを記述するためにボールを使用する。
高速、余分なパラメータなし、単純設計のボールk平均アルゴリズムは、素早いk平均アルゴリズムを全面的に置き換える。
論文 参考訳(メタデータ) (2020-05-02T10:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。