論文の概要: Randomly Projected Convex Clustering Model: Motivation, Realization, and
Cluster Recovery Guarantees
- arxiv url: http://arxiv.org/abs/2303.16841v1
- Date: Wed, 29 Mar 2023 16:47:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 13:54:26.852166
- Title: Randomly Projected Convex Clustering Model: Motivation, Realization, and
Cluster Recovery Guarantees
- Title(参考訳): ランダムに予測された凸クラスタリングモデル:モチベーション、実現、クラスタ回収保証
- Authors: Ziwen Wang, Yancheng Yuan, Jiaming Ma, Tieyong Zeng, Defeng Sun
- Abstract要約: ランダムに投影された凸クラスタリングモデルを用いて,$n$の高次元データポイントの集合を$mathbbRd$と$K$の隠れクラスタでクラスタリングする。
軽度の条件下では,コンベックスクラスタリングモデルのクラスタメンバシップ割り当てが完全に回復できることが証明できる。
本稿では,ランダムに投影された凸クラスタリングモデルが,実際にランダムに投影されたK平均モデルより優れていることを示す。
- 参考スコア(独自算出の注目度): 18.521314122101774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a randomly projected convex clustering model for
clustering a collection of $n$ high dimensional data points in $\mathbb{R}^d$
with $K$ hidden clusters. Compared to the convex clustering model for
clustering original data with dimension $d$, we prove that, under some mild
conditions, the perfect recovery of the cluster membership assignments of the
convex clustering model, if exists, can be preserved by the randomly projected
convex clustering model with embedding dimension $m = O(\epsilon^{-2}\log(n))$,
where $0 < \epsilon < 1$ is some given parameter. We further prove that the
embedding dimension can be improved to be $O(\epsilon^{-2}\log(K))$, which is
independent of the number of data points. Extensive numerical experiment
results will be presented in this paper to demonstrate the robustness and
superior performance of the randomly projected convex clustering model. The
numerical results presented in this paper also demonstrate that the randomly
projected convex clustering model can outperform the randomly projected K-means
model in practice.
- Abstract(参考訳): 本稿では,$n$の高次元データポイントの集合を,$K$の隠れクラスタで$\mathbb{R}^d$でクラスタリングするための,ランダムに投影された凸クラスタリングモデルを提案する。
0 < \epsilon < 1$ が与えられたパラメータであるような次元$m = o(\epsilon^{-2}\log(n))$ を持つランダムに投影された凸クラスタリングモデルによって、いくつかの穏やかな条件下では、凸クラスタリングモデルのクラスタメンバーシップ割り当ての完全な回復が保存可能であることが証明される。
さらに、埋め込み次元はデータ点の数に依存しない$o(\epsilon^{-2}\log(k))$ に改善できることも証明する。
本稿では,ランダムに投影された凸クラスタリングモデルのロバスト性と優れた性能を示すため,数値実験を行った。
本稿では, ランダムに投影された凸クラスタリングモデルが, ランダムに投影されたk平均モデルよりも優れることを示す。
関連論文リスト
- Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Local versions of sum-of-norms clustering [77.34726150561087]
本手法はボールモデルにおいて任意に閉じた球を分離できることを示す。
我々は、不連結連結集合のクラスタリングで発生する誤差に定量的な有界性を証明した。
論文 参考訳(メタデータ) (2021-09-20T14:45:29Z) - Distribution free optimality intervals for clustering [1.7513645771137178]
データ$mathcalD$と、これらのデータのパーティション$mathcalC$を$K$クラスタにすると、得られたクラスタがデータに対して正しい、あるいは有意義なものであると言えますか?
本稿では,K-means歪みなどの損失関数に関して,クラスタリング$mathcalC$が有意義であると考えられるパラダイムを紹介した。
論文 参考訳(メタデータ) (2021-07-30T06:13:56Z) - Sum-of-norms clustering does not separate nearby balls [49.1574468325115]
我々は,データセットを一般的な測度に置き換えた,和和クラスタリングの連続的なバージョンを示す。
我々は,離散データポイントの場合においても,新たなクラスタリングの局所的特徴を記述し,証明する。
論文 参考訳(メタデータ) (2021-04-28T13:35:17Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - Computationally efficient sparse clustering [67.95910835079825]
我々はPCAに基づく新しいクラスタリングアルゴリズムの有限サンプル解析を行う。
ここでは,ミニマックス最適誤クラスタ化率を,体制$|theta infty$で達成することを示す。
論文 参考訳(メタデータ) (2020-05-21T17:51:30Z) - Robust M-Estimation Based Bayesian Cluster Enumeration for Real
Elliptically Symmetric Distributions [5.137336092866906]
データセットにおける最適なクラスタ数のロバストな決定は、広範囲のアプリケーションにおいて必須の要素である。
本稿では任意のReally Symmetric(RES)分散混合モデルで使用できるように一般化する。
サンプルサイズが有限であるデータセットに対して,ロバストな基準を導出するとともに,大規模なサンプルサイズでの計算コスト削減のための近似を提供する。
論文 参考訳(メタデータ) (2020-05-04T11:44:49Z) - Blocked Clusterwise Regression [0.0]
我々は、各ユニットが複数の潜伏変数を持つことを可能にすることで、離散的非観測的不均一性に対する以前のアプローチを一般化する。
我々は,クラスタの過剰な数のクラスタリングの理論に寄与し,この設定に対する新たな収束率を導出する。
論文 参考訳(メタデータ) (2020-01-29T23:29:31Z) - A new model for natural groupings in high-dimensional data [0.4604003661048266]
クラスタリングは、一連のポイントをグループに分割することを目的としています。
最近の実験では、異なるバイナリグルーピングを形成するいくつかの高次元データセットが発見されている。
本稿では,この現象を説明できる確率モデルについて述べる。
論文 参考訳(メタデータ) (2019-09-14T02:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。