論文の概要: Self-Evolutionary Clustering
- arxiv url: http://arxiv.org/abs/2202.10505v1
- Date: Mon, 21 Feb 2022 19:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 15:03:49.788452
- Title: Self-Evolutionary Clustering
- Title(参考訳): 自己進化的クラスタリング
- Authors: Hanxuan Wang, Na Lu, Qinyang Liu
- Abstract要約: 既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
- 参考スコア(独自算出の注目度): 1.662966122370634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep clustering outperforms conventional clustering by mutually promoting
representation learning and cluster assignment. However, most existing deep
clustering methods suffer from two major drawbacks. First, most cluster
assignment methods are based on simple distance comparison and highly dependent
on the target distribution generated by a handcrafted nonlinear mapping. These
facts largely limit the possible performance that deep clustering methods can
reach. Second, the clustering results can be easily guided towards wrong
direction by the misassigned samples in each cluster. The existing deep
clustering methods are incapable of discriminating such samples. To address
these issues, a novel modular Self-Evolutionary Clustering (Self-EvoC)
framework is constructed, which boosts the clustering performance by
classification in a self-supervised manner. Fuzzy theory is used to score the
sample membership with probability which evaluates the intermediate clustering
result certainty of each sample. Based on which, the most reliable samples can
be selected and augmented. The augmented data are employed to fine-tune an
off-the-shelf deep network classifier with the labels from the clustering,
which results in a model to generate the target distribution. The proposed
framework can efficiently discriminate sample outliers and generate better
target distribution with the assistance of self-supervised classifier.
Extensive experiments indicate that the Self-EvoC remarkably outperforms
state-of-the-art deep clustering methods on three benchmark datasets.
- Abstract(参考訳): ディープクラスタリングは、表現学習とクラスタ割り当てを相互に促進することで、従来のクラスタリングよりも優れています。
しかし、既存のディープクラスタリング手法の多くは、2つの大きな欠点を抱えている。
まず、ほとんどのクラスタ割当法は単純な距離比較に基づいており、手作りの非線形マッピングによって生成されるターゲット分布に大きく依存している。
これらの事実は、ディープクラスタリングメソッドが到達可能なパフォーマンスを大幅に制限します。
第2に、クラスタ毎に誤って割り当てられたサンプルによって、クラスタ結果を間違った方向に容易に誘導することができる。
既存のディープクラスタリング手法は、そのようなサンプルを識別できない。
これらの問題に対処するため,新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な方法でクラスタリング性能が向上する。
ファジィ理論は、各サンプルの中間クラスタリング結果の確実性を評価する確率でサンプルメンバーシップを評価するために用いられる。
これに基づいて、最も信頼性の高いサンプルを選択および拡張することができる。
集約されたデータは、オフザシェルフのディープネットワーク分類器をクラスタリングからラベルに微調整するために使用され、結果としてターゲット分布を生成するモデルとなる。
提案フレームワークは, 自己教師型分類器の助けを借りて, サンプルアウトレーヤを効率よく識別し, より良い目標分布を生成する。
大規模な実験により、Self-EvoCは3つのベンチマークデータセットで最先端のディープクラスタリング手法を著しく上回ることがわかった。
関連論文リスト
- GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Implicit Sample Extension for Unsupervised Person Re-Identification [97.46045935897608]
クラスタリングは、時に異なる真のアイデンティティを混ぜ合わせたり、同じアイデンティティを2つ以上のサブクラスタに分割する。
本稿では,クラスタ境界周辺のサポートサンプルを生成するために,Implicit Sample Extension (OurWholeMethod)法を提案する。
提案手法の有効性を実証し,教師なしのRe-IDに対して最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-14T11:41:48Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Progressive Cluster Purification for Unsupervised Feature Learning [48.87365358296371]
教師なしの特徴学習では、サンプル特異性に基づく手法はクラス間の情報を無視する。
本稿では,プログレッシブクラスタ形成時にクラス不整合サンプルを除外するクラスタリングに基づく新しい手法を提案する。
我々の手法は、プログレッシブ・クラスタ・パーフィケーション(PCP)と呼ばれ、訓練中に徐々にクラスタ数を減らし、プログレッシブ・クラスタリングを実装している。
論文 参考訳(メタデータ) (2020-07-06T08:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。