論文の概要: k-sums: another side of k-means
- arxiv url: http://arxiv.org/abs/2005.09485v1
- Date: Tue, 19 May 2020 14:36:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 13:22:11.385025
- Title: k-sums: another side of k-means
- Title(参考訳): k-sums:k-meansの別の側面
- Authors: Wan-Lei Zhao, Run-Qing Chen, Hui Ye and Chong-Wah Ngo
- Abstract要約: 本稿では, 数十年前からあるクラスタリング手法k-meansについて再検討する。
k平均の元々の歪み最小化モデルは、純粋な最小化法によって対処される。
クラスタ内の対距離を最小化する新たなターゲット関数を示す。
- 参考スコア(独自算出の注目度): 34.317086730703124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, the decades-old clustering method k-means is revisited. The
original distortion minimization model of k-means is addressed by a pure
stochastic minimization procedure. In each step of the iteration, one sample is
tentatively reallocated from one cluster to another. It is moved to another
cluster as long as the reallocation allows the sample to be closer to the new
centroid. This optimization procedure converges faster to a better local
minimum over k-means and many of its variants. This fundamental modification
over the k-means loop leads to the redefinition of a family of k-means
variants. Moreover, a new target function that minimizes the summation of
pairwise distances within clusters is presented. We show that it could be
solved under the same stochastic optimization procedure. This minimization
procedure built upon two minimization models outperforms k-means and its
variants considerably with different settings and on different datasets.
- Abstract(参考訳): 本稿では、数十年前のクラスタリング手法k-meansを再考する。
k平均の本来の歪み最小化モデルは、純粋確率最小化法によって対処される。
イテレーションの各ステップでは、あるサンプルが暫定的にクラスタから別のクラスタに再配置される。
再配置がサンプルを新しいセントロイドに近づける限り、別のクラスタに移動する。
この最適化手順はより高速にk平均や多くの変種よりも良い局所最小値に収束する。
このk-meansループに対する根本的な修正は、k-means変種族の再定義につながる。
さらに,クラスタ内の対距離の和を最小化する新たなターゲット関数を提案する。
同じ確率的最適化手順で解くことができることを示す。
この最小化手順は、2つの最小化モデルに基づいて構築され、k平均とその変種を異なる設定と異なるデータセットで大幅に上回る。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - CKmeans and FCKmeans : Two deterministic initialization procedures for
Kmeans algorithm using a modified crowding distance [0.0]
K平均クラスタリングのための2つの新しい決定論的手順を示す。
CKmeans と FCKmeans という名前の手順は、より混雑した点を初期セントロイドとして使用する。
複数のデータセットに関する実験的研究により、提案手法がクラスタリング精度においてKmeansとKmeans++より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-19T21:46:02Z) - Sketch-and-solve approaches to k-means clustering by semidefinite
programming [14.930208990741132]
我々は,k-meansクラスタリングのPeng-Wei半定緩和を高速化するためのスケッチ・アンド・ソルジ手法を提案する。
データが適切に分離された場合、k平均の最適なクラスタリングを特定する。
そうでなければ、我々のアプローチは最適k-平均値に高信頼な下界を与える。
論文 参考訳(メタデータ) (2022-11-28T19:51:30Z) - Hessian Averaging in Stochastic Newton Methods Achieves Superlinear
Convergence [69.65563161962245]
ニュートン法を用いて,滑らかで強凸な目的関数を考える。
最適段階において局所収束に遷移する普遍重み付き平均化スキームが存在することを示す。
論文 参考訳(メタデータ) (2022-04-20T07:14:21Z) - K-Splits: Improved K-Means Clustering Algorithm to Automatically Detect
the Number of Clusters [0.12313056815753944]
本稿では,k-meansに基づく改良された階層型アルゴリズムであるk-splitsを紹介する。
提案手法の主な利点は,精度と速度である。
論文 参考訳(メタデータ) (2021-10-09T23:02:57Z) - On Stochastic Moving-Average Estimators for Non-Convex Optimization [105.22760323075008]
本稿では,移動平均(SEMA)問題に基づく広く利用されている推定器のパワーを実証する。
これらすべてのアートな結果に対して、これらのアートな問題に対する結果も提示します。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Computationally efficient sparse clustering [67.95910835079825]
我々はPCAに基づく新しいクラスタリングアルゴリズムの有限サンプル解析を行う。
ここでは,ミニマックス最適誤クラスタ化率を,体制$|theta infty$で達成することを示す。
論文 参考訳(メタデータ) (2020-05-21T17:51:30Z) - Ball k-means [53.89505717006118]
Ball k-meansアルゴリズムは、ポイントセントロイド距離計算の削減に集中して、クラスタを記述するためにボールを使用する。
高速、余分なパラメータなし、単純設計のボールk平均アルゴリズムは、素早いk平均アルゴリズムを全面的に置き換える。
論文 参考訳(メタデータ) (2020-05-02T10:39:26Z) - k-means++: few more steps yield constant approximation [3.7468898363447654]
Arthur and Vassilvitskii (SODA 2007) の k-means++ アルゴリズムは k-means クラスタリング問題を解くための最先端のアルゴリズムである。
最近、Lattanzi と Sohler (ICML) は k-means++ を O(k log k) 局所探索ステップで拡張し、k-means クラスタリング問題に一定の近似(期待)をもたらすことを提案した。
論文 参考訳(メタデータ) (2020-02-18T18:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。