論文の概要: Local versions of sum-of-norms clustering
- arxiv url: http://arxiv.org/abs/2109.09589v1
- Date: Mon, 20 Sep 2021 14:45:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:42:33.304214
- Title: Local versions of sum-of-norms clustering
- Title(参考訳): sum-of-normsクラスタリングのローカルバージョン
- Authors: Alexander Dunlap and Jean-Christophe Mourrat
- Abstract要約: 本手法はボールモデルにおいて任意に閉じた球を分離できることを示す。
我々は、不連結連結集合のクラスタリングで発生する誤差に定量的な有界性を証明した。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sum-of-norms clustering is a convex optimization problem whose solution can
be used for the clustering of multivariate data. We propose and study a
localized version of this method, and show in particular that it can separate
arbitrarily close balls in the stochastic ball model. More precisely, we prove
a quantitative bound on the error incurred in the clustering of disjoint
connected sets. Our bound is expressed in terms of the number of datapoints and
the localization length of the functional.
- Abstract(参考訳): sum-of-normsクラスタリングは、多変量データのクラスタリングにソリューションが使用できる凸最適化問題である。
本手法の局所化バージョンを提案・検討し,特に確率球モデルにおいて任意に近接した球を分離できることを示す。
より正確には、不随伴連結集合のクラスタリングで生じる誤差に定量的な境界が証明される。
我々の境界は、データポイントの数と関数の局所化長で表される。
関連論文リスト
- Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Approximating a RUM from Distributions on k-Slates [88.32814292632675]
与えられた分布を平均で最もよく近似するRUMを求める一般化時間アルゴリズムを求める。
我々の理論的結果は、実世界のデータセットに効果的でスケール可能なものを得るという、実践的な結果も得られます。
論文 参考訳(メタデータ) (2023-05-22T17:43:34Z) - Randomly Projected Convex Clustering Model: Motivation, Realization, and
Cluster Recovery Guarantees [18.521314122101774]
ランダムに投影された凸クラスタリングモデルを用いて,$n$の高次元データポイントの集合を$mathbbRd$と$K$の隠れクラスタでクラスタリングする。
軽度の条件下では,コンベックスクラスタリングモデルのクラスタメンバシップ割り当てが完全に回復できることが証明できる。
本稿では,ランダムに投影された凸クラスタリングモデルが,実際にランダムに投影されたK平均モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-03-29T16:47:25Z) - High-dimensional variable clustering based on maxima of a weakly dependent random process [1.1999555634662633]
本稿では,Asymptotic Independent Block (AI-block)モデルと呼ばれる,変数クラスタリングのための新しいモデルのクラスを提案する。
このモデルのクラスは特定可能であり、つまり、分割の間に部分的な順序を持つ極大要素が存在し、統計的推測が可能であることを意味する。
また,変数のクラスタを列挙するチューニングパラメータに依存するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-02T08:24:26Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Sum-of-norms clustering does not separate nearby balls [49.1574468325115]
我々は,データセットを一般的な測度に置き換えた,和和クラスタリングの連続的なバージョンを示す。
我々は,離散データポイントの場合においても,新たなクラスタリングの局所的特徴を記述し,証明する。
論文 参考訳(メタデータ) (2021-04-28T13:35:17Z) - Blocked Clusterwise Regression [0.0]
我々は、各ユニットが複数の潜伏変数を持つことを可能にすることで、離散的非観測的不均一性に対する以前のアプローチを一般化する。
我々は,クラスタの過剰な数のクラスタリングの理論に寄与し,この設定に対する新たな収束率を導出する。
論文 参考訳(メタデータ) (2020-01-29T23:29:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。