論文の概要: Improving The Performance Of The K-means Algorithm
- arxiv url: http://arxiv.org/abs/2005.04689v1
- Date: Sun, 10 May 2020 15:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 01:28:19.091160
- Title: Improving The Performance Of The K-means Algorithm
- Title(参考訳): k-meansアルゴリズムの性能向上
- Authors: Tien-Dung Nguyen
- Abstract要約: 私の論文では、クラスタリング結果の質を概ね保ちながら、IKMを高速化する2つのアルゴリズムを提案している。
最初のアルゴリズムはDivisive K-meansと呼ばれ、クラスタの分割プロセスを高速化することでIKMの速度を改善する。
2つ目のアルゴリズムはPar2PK-means(Par2PK-means)と呼ばれ、Two-Phase K-meansモデルを用いてIKMを並列化する。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Incremental K-means (IKM), an improved version of K-means (KM), was
introduced to improve the clustering quality of KM significantly. However, the
speed of IKM is slower than KM. My thesis proposes two algorithms to speed up
IKM while remaining the quality of its clustering result approximately. The
first algorithm, called Divisive K-means, improves the speed of IKM by speeding
up its splitting process of clusters. Testing with UCI Machine Learning data
sets, the new algorithm achieves the empirically global optimum as IKM and has
lower complexity, $O(k*log_{2}k*n)$, than IKM, $O(k^{2}n)$. The second
algorithm, called Parallel Two-Phase K-means (Par2PK-means), parallelizes IKM
by employing the model of Two-Phase K-means. Testing with large data sets, this
algorithm attains a good speedup ratio, closing to the linearly speed-up ratio.
- Abstract(参考訳): k-means(km)の改良版であるインクリメンタルk-means(ikm)はkmのクラスタリング品質を大幅に改善するために導入された。
しかし、IKMの速度はKMよりも遅い。
私の論文では、クラスタリング結果の質を概ね保ちながら、IKMを高速化する2つのアルゴリズムを提案する。
最初のアルゴリズムはDivisive K-meansと呼ばれ、クラスタの分割プロセスを高速化することでIKMの速度を改善する。
UCI Machine Learningデータセットを用いてテストすると、新しいアルゴリズムはIKMとして経験的にグローバルな最適化を達成し、IKMより低い複雑さ、$O(k*log_{2}k*n)$、$O(k^{2}n)$である。
2つ目のアルゴリズムはPar2PK-means(Par2PK-means)と呼ばれ、Two-Phase K-meansモデルを用いてIKMを並列化する。
大規模なデータセットを用いてテストすると、このアルゴリズムは線形スピードアップ比に閉ざされた良好なスピードアップ比が得られる。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - IDKM: Memory Efficient Neural Network Quantization via Implicit,
Differentiable k-Means [20.13045791225961]
本稿では,DKMのメモリ制限を解消する暗黙的で微分可能な$k$-meansアルゴリズム(IDKM)を提案する。
我々はIDKMがDKMに匹敵する性能を達成できることを示す。
また、DKMが全くトレーニングできないハードウェア上で、IDKMとIDKM-JFBを使用して、大規模なニューラルネットワークであるResnet18を定量化しています。
論文 参考訳(メタデータ) (2023-12-12T22:02:57Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Careful Seeding for k-Medois Clustering with Incremental k-Means++ Initialization [17.4921582710817]
K-medoidsクラスタリングはk-meansクラスタリングの一般的な変種であり、パターン認識や機械学習で広く使用されている。
INCKMアルゴリズムと呼ばれる改良されたk-medoidsクラスタリングアルゴリズムが最近提案され、この欠点を克服した。
インクリメンタルk-means++ (INCKPP) アルゴリズムと呼ばれる新しいk-medoidsクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-06T02:25:35Z) - K-Splits: Improved K-Means Clustering Algorithm to Automatically Detect
the Number of Clusters [0.12313056815753944]
本稿では,k-meansに基づく改良された階層型アルゴリズムであるk-splitsを紹介する。
提案手法の主な利点は,精度と速度である。
論文 参考訳(メタデータ) (2021-10-09T23:02:57Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - Exact Acceleration of K-Means++ and K-Means$\|$ [22.66983713481359]
K-Means++とK-Means$|$はK-meansの初期種を選択するデファクトツールとなっている。
我々は、K-Means++とK-Means$|$の最初のアクセラレーションを示すために、特殊三角不等式プルーニング戦略と動的優先度待ち行列を開発する。
論文 参考訳(メタデータ) (2021-05-06T20:22:55Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Breathing K-Means: Superior K-Means Solutions through Dynamic K-Values [0.0]
我々は,広く知られているgreedy k-means++アルゴリズムによって得られる解を平均的に大幅に改善する呼吸k-meansアルゴリズムを提案する。
これらの改善は、局所的誤差と実用性尺度に基づいて、周期的にセントロイドの数を増加・減少させる、新しい呼吸技術によって達成される。
論文 参考訳(メタデータ) (2020-06-28T17:49:37Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Ball k-means [53.89505717006118]
Ball k-meansアルゴリズムは、ポイントセントロイド距離計算の削減に集中して、クラスタを記述するためにボールを使用する。
高速、余分なパラメータなし、単純設計のボールk平均アルゴリズムは、素早いk平均アルゴリズムを全面的に置き換える。
論文 参考訳(メタデータ) (2020-05-02T10:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。