論文の概要: Rethinking k-means from manifold learning perspective
- arxiv url: http://arxiv.org/abs/2305.07213v1
- Date: Fri, 12 May 2023 03:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 14:16:17.969188
- Title: Rethinking k-means from manifold learning perspective
- Title(参考訳): 多様体学習の観点からのk-平均の再考
- Authors: Quanxue Gao, Qianqian Wang, Han Lu, Wei Xia, Xinbo Gao
- Abstract要約: 平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
- 参考スコア(独自算出の注目度): 122.38667613245151
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although numerous clustering algorithms have been developed, many existing
methods still leverage k-means technique to detect clusters of data points.
However, the performance of k-means heavily depends on the estimation of
centers of clusters, which is very difficult to achieve an optimal solution.
Another major drawback is that it is sensitive to noise and outlier data. In
this paper, from manifold learning perspective, we rethink k-means and present
a new clustering algorithm which directly detects clusters of data without mean
estimation. Specifically, we construct distance matrix between data points by
Butterworth filter such that distance between any two data points in the same
clusters equals to a small constant, while increasing the distance between
other data pairs from different clusters. To well exploit the complementary
information embedded in different views, we leverage the tensor Schatten p-norm
regularization on the 3rd-order tensor which consists of indicator matrices of
different views. Finally, an efficient alternating algorithm is derived to
optimize our model. The constructed sequence was proved to converge to the
stationary KKT point. Extensive experimental results indicate the superiority
of our proposed method.
- Abstract(参考訳): 多くのクラスタリングアルゴリズムが開発されているが、既存の多くの手法はk-means技術を使ってデータポイントのクラスターを検出する。
しかし、k平均の性能はクラスターの中心の推定に大きく依存しており、最適解を得るのは非常に困難である。
もうひとつの大きな欠点は、ノイズや異常データに敏感であることだ。
本稿では,数式学習の観点からk-meansを再考し,平均推定なしにデータのクラスタを直接検出するクラスタリングアルゴリズムを提案する。
具体的には、同一クラスタ内の任意の2つのデータポイント間の距離が小さい定数に等しいように、異なるクラスタからの他のデータペア間の距離を増加させながら、butterworthフィルタによるデータポイント間の距離行列を構築する。
異なるビューに埋め込まれた補完的情報をうまく活用するために、異なるビューの指標行列からなる3階テンソル上のテンソルシャッテンp-ノルム正則化を利用する。
最後に、モデル最適化のために効率的な交互アルゴリズムが導出される。
構成配列は静止KKT点に収束することが証明された。
実験結果から,提案手法の優位性が示唆された。
関連論文リスト
- K-Means Clustering With Incomplete Data with the Use of Mahalanobis Distances [0.0]
我々は従来のユークリッド距離の代わりにマハラノビス距離を組み込む統一K平均アルゴリズムを開発した。
我々のアルゴリズムはスタンドアローンの計算とK平均の両方を一貫して上回ることを示す。
これらの結果は、IRISデータセットと楕円型クラスタでランダムに生成されたデータの両方にわたって保持される。
論文 参考訳(メタデータ) (2024-10-31T00:05:09Z) - Inference with K-means [0.0]
k-meansは、kセントロイドをランダムに割り当て、データポイントを最も近いセントロイドに割り当て、割り当てられたポイントの平均に基づいてセントロイドを更新する反復的クラスタリングアルゴリズムである。
オンライン平衡k平均手法を用いて,クラスタデータ分布から得られるデータポイントの最後の成分の予測について検討した。
論文 参考訳(メタデータ) (2024-10-04T06:51:58Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Linear time Evidence Accumulation Clustering with KMeans [0.0]
この研究は、平均的なリンククラスタリングの振る舞いを模倣するトリックを記述する。
分割の密度を効率よく計算する方法を見つけ、二次的な複雑さから線形的な複雑さへのコストを削減した。
k平均結果は、計算コストを低く保ちながら、NMIの観点からは、最先端の技術に匹敵する。
論文 参考訳(メタデータ) (2023-11-15T14:12:59Z) - An enhanced method of initial cluster center selection for K-means
algorithm [0.0]
K-meansアルゴリズムの初期クラスタ選択を改善するための新しい手法を提案する。
Convex Hullアルゴリズムは、最初の2つのセントロイドの計算を容易にし、残りの2つは、以前選択された中心からの距離に応じて選択される。
We obtained only 7.33%, 7.90%, and 0% clustering error in Iris, Letter, and Ruspini data。
論文 参考訳(メタデータ) (2022-10-18T00:58:50Z) - K-Splits: Improved K-Means Clustering Algorithm to Automatically Detect
the Number of Clusters [0.12313056815753944]
本稿では,k-meansに基づく改良された階層型アルゴリズムであるk-splitsを紹介する。
提案手法の主な利点は,精度と速度である。
論文 参考訳(メタデータ) (2021-10-09T23:02:57Z) - Kernel distance measures for time series, random fields and other
structured data [71.61147615789537]
kdiffは、構造化データのインスタンス間の距離を推定するためのカーネルベースの新しい尺度である。
これはインスタンス間の自己類似性と交差類似性の両方を考慮し、距離分布の低い定量値を用いて定義される。
kdiffをクラスタリングと分類問題のための距離尺度として用いた分離性条件について,いくつかの理論的結果が得られた。
論文 参考訳(メタデータ) (2021-09-29T22:54:17Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。