論文の概要: Determinantal consensus clustering
- arxiv url: http://arxiv.org/abs/2102.03948v1
- Date: Sun, 7 Feb 2021 23:48:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 16:02:14.104226
- Title: Determinantal consensus clustering
- Title(参考訳): 決定的コンセンサスクラスタリング
- Authors: Serge Vicente, Alejandro Murua
- Abstract要約: 本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Random restart of a given algorithm produces many partitions to yield a
consensus clustering. Ensemble methods such as consensus clustering have been
recognized as more robust approaches for data clustering than single clustering
algorithms. We propose the use of determinantal point processes or DPP for the
random restart of clustering algorithms based on initial sets of center points,
such as k-medoids or k-means. The relation between DPP and kernel-based methods
makes DPPs suitable to describe and quantify similarity between objects. DPPs
favor diversity of the center points within subsets. So, subsets with more
similar points have less chances of being generated than subsets with very
distinct points. The current and most popular sampling technique is sampling
center points uniformly at random. We show through extensive simulations that,
contrary to DPP, this technique fails both to ensure diversity, and to obtain a
good coverage of all data facets. These two properties of DPP are key to make
DPPs achieve good performance with small ensembles. Simulations with artificial
datasets and applications to real datasets show that determinantal consensus
clustering outperform classical algorithms such as k-medoids and k-means
consensus clusterings which are based on uniform random sampling of center
points.
- Abstract(参考訳): 与えられたアルゴリズムのランダム再起動は多くのパーティションを生成し、コンセンサスクラスタリングを生成する。
コンセンサスクラスタリングのようなエンサンブルメソッドは、単一のクラスタリングアルゴリズムよりもデータクラスタリングの堅牢なアプローチとして認識されている。
本稿では,k-medoids や k-means などの中心点の初期集合に基づくクラスタリングアルゴリズムのランダム再起動に行列点過程や dpp を用いることを提案する。
DPPとカーネルベースのメソッドの関係により、DPPはオブジェクト間の類似性を記述および定量化するのに適している。
DPPはサブセット内の中心点の多様性を好む。
したがって、類似点を持つ部分集合は、非常に異なる点を持つ部分集合よりも生成する確率が低い。
現在最も普及しているサンプリング技術は、ランダムにセンターポイントを均一にサンプリングすることです。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェーットの良好なカバレッジを得るのに失敗する、という広範なシミュレーションを通して示している。
これらのDPPの2つの特性は、DPPが小さなアンサンブルで優れたパフォーマンスを達成する鍵です。
人工データセットによるシミュレーションと実際のデータセットへの応用により、決定的コンセンサスクラスタリングは、中心点の均一なランダムサンプリングに基づくk-メノイドやk-平均コンセンサスクラスタリングのような古典的アルゴリズムよりも優れた結果を示す。
関連論文リスト
- Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - An enhanced method of initial cluster center selection for K-means
algorithm [0.0]
K-meansアルゴリズムの初期クラスタ選択を改善するための新しい手法を提案する。
Convex Hullアルゴリズムは、最初の2つのセントロイドの計算を容易にし、残りの2つは、以前選択された中心からの距離に応じて選択される。
We obtained only 7.33%, 7.90%, and 0% clustering error in Iris, Letter, and Ruspini data。
論文 参考訳(メタデータ) (2022-10-18T00:58:50Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - POCS-based Clustering Algorithm [0.0]
本稿では,POCSに基づくクラスタリングアルゴリズムと呼ばれる,POCS法に基づく新しいクラスタリング手法を提案する。
提案するクラスタリングアルゴリズムは,POCSの並列プロジェクション手法を利用して,特徴空間に適切なクラスタプロトタイプを求める。
提案するPOCSクラスタリングアルゴリズムの性能は, 各種合成データセットを用いた実験により検証した。
論文 参考訳(メタデータ) (2022-08-15T12:33:09Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - A sampling-based approach for efficient clustering in large datasets [0.8952229340927184]
本稿では,多数のクラスタを持つ高次元データに対して,簡便かつ効率的なクラスタリング手法を提案する。
私たちのコントリビューションは、データポイントとクラスタの完全な比較を必要としないため、k-meansよりもはるかに効率的です。
論文 参考訳(メタデータ) (2021-12-29T19:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。