論文の概要: Strong Consistency for a Class of Adaptive Clustering Procedures
- arxiv url: http://arxiv.org/abs/2202.13423v1
- Date: Sun, 27 Feb 2022 18:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:26:09.339817
- Title: Strong Consistency for a Class of Adaptive Clustering Procedures
- Title(参考訳): 適応的クラスタリング手順のクラスに対する強い一貫性
- Authors: Adam Quinn Jaffe
- Abstract要約: このクラス内の全てのクラスタリング手順は、IIDサンプルの下で強く整合していることが示される。
適応的な環境では、我々の研究は、その種の第1の強い一貫性のある結果をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a class of clustering procedures which includes $k$-means and
$k$-medians, as well as variants of these where the domain of the cluster
centers can be chosen adaptively (for example, $k$-medoids) and where the
number of cluster centers can be chosen adaptively (for example, according to
the elbow method). In the non-parametric setting and assuming only the
finiteness of certain moments, we show that all clustering procedures in this
class are strongly consistent under IID samples. Our method of proof is to
directly study the continuity of various deterministic maps associated with
these clustering procedures, and to show that strong consistency simply
descends from analogous strong consistency of the empirical measures. In the
adaptive setting, our work provides a strong consistency result that is the
first of its kind. In the non-adaptive setting, our work strengthens Pollard's
classical result by dispensing with various unnecessary technical hypotheses,
by upgrading the particular notion of strong consistency, and by using the same
methods to prove further limit theorems.
- Abstract(参考訳): 我々は、$k$-meansと$k$-mediansを含むクラスタリング手順のクラスを紹介し、クラスタセンタのドメインを適応的に選択できる(例えば、$k$-medoids)、クラスタセンタの数を適応的に選択できる(例えば、elbowメソッドによると、)。
非パラメトリックな設定において、あるモーメントの有限性のみを仮定すると、このクラスの全てのクラスタリング手順は、IDDサンプルの下で強く整合であることを示す。
本手法は,これらのクラスタリング手法に付随する種々の決定論的写像の連続性を直接研究し,経験的尺度の類似の強い一貫性から強い一貫性が導かれることを示す。
適応的な環境では、我々の研究は、その種の第一の強い一貫性のある結果をもたらす。
非適応的な設定では、我々の研究はポラードの古典的な結果を強化し、様々な不要な技術的仮説を排除し、強い一貫性の特定の概念を改良し、同じ方法を用いてさらなる極限定理を証明する。
関連論文リスト
- Memetic Differential Evolution Methods for Semi-Supervised Clustering [1.0256438517258686]
我々は、背景知識がインスタンスレベルの制約の形で与えられる半教師付き最小値クラスタリング(MSSC)問題に対処する。
本稿では,非教師付きクラスタリング文献で最近提案された最先端のフレームワークを直接拡張する,微分進化パラダイムに基づく新しいメメティクス戦略を提案する。
論文 参考訳(メタデータ) (2024-03-07T08:37:36Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Self-Evolutionary Clustering [1.662966122370634]
既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
論文 参考訳(メタデータ) (2022-02-21T19:38:18Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Clustering Binary Data by Application of Combinatorial Optimization
Heuristics [52.77024349608834]
本稿では,2値データのクラスタリング手法について検討し,まず,クラスタのコンパクトさを計測するアグリゲーション基準を定義した。
近隣地域と人口動態最適化メタヒューリスティックスを用いた5つの新しいオリジナル手法が導入された。
準モンテカルロ実験によって生成された16のデータテーブルから、L1の相似性と階層的クラスタリング、k-means(メドイドやPAM)の1つのアグリゲーションの比較を行う。
論文 参考訳(メタデータ) (2020-01-06T23:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。