論文の概要: Progressive Cluster Purification for Unsupervised Feature Learning
- arxiv url: http://arxiv.org/abs/2007.02577v2
- Date: Wed, 15 Jul 2020 17:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 02:46:40.597492
- Title: Progressive Cluster Purification for Unsupervised Feature Learning
- Title(参考訳): 教師なし特徴学習のためのプログレッシブクラスタ浄化
- Authors: Yifei Zhang, Chang Liu, Yu Zhou, Wei Wang, Weiping Wang and Qixiang Ye
- Abstract要約: 教師なしの特徴学習では、サンプル特異性に基づく手法はクラス間の情報を無視する。
本稿では,プログレッシブクラスタ形成時にクラス不整合サンプルを除外するクラスタリングに基づく新しい手法を提案する。
我々の手法は、プログレッシブ・クラスタ・パーフィケーション(PCP)と呼ばれ、訓練中に徐々にクラスタ数を減らし、プログレッシブ・クラスタリングを実装している。
- 参考スコア(独自算出の注目度): 48.87365358296371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In unsupervised feature learning, sample specificity based methods ignore the
inter-class information, which deteriorates the discriminative capability of
representation models. Clustering based methods are error-prone to explore the
complete class boundary information due to the inevitable class inconsistent
samples in each cluster. In this work, we propose a novel clustering based
method, which, by iteratively excluding class inconsistent samples during
progressive cluster formation, alleviates the impact of noise samples in a
simple-yet-effective manner. Our approach, referred to as Progressive Cluster
Purification (PCP), implements progressive clustering by gradually reducing the
number of clusters during training, while the sizes of clusters continuously
expand consistently with the growth of model representation capability. With a
well-designed cluster purification mechanism, it further purifies clusters by
filtering noise samples which facilitate the subsequent feature learning by
utilizing the refined clusters as pseudo-labels. Experiments on commonly used
benchmarks demonstrate that the proposed PCP improves baseline method with
significant margins. Our code will be available at
https://github.com/zhangyifei0115/PCP.
- Abstract(参考訳): 教師なし特徴学習では、サンプル特異性に基づく手法はクラス間情報を無視し、表現モデルの識別能力が低下する。
クラスタリングに基づく手法は、各クラスタで避けられないクラス不整合サンプルのために、完全なクラス境界情報を探索するエラーを起こしやすい。
本研究では,クラスタ形成中にクラス一貫性のないサンプルを反復的に排除することにより,ノイズサンプルの影響を簡易に緩和するクラスタリングベース手法を提案する。
本手法はプログレッシブクラスタ浄化(pcp)と呼ばれ,トレーニング中のクラスタ数を徐々に削減し,クラスタのサイズはモデル表現能力の増大とともに継続的に拡大する。
適切に設計されたクラスタ浄化機構により、改良されたクラスタを擬似ラベルとして利用することにより、その後の特徴学習を容易にするノイズサンプルをフィルタリングすることでクラスタをさらに浄化する。
一般的なベンチマーク実験により,提案したPCPはベースライン法を著しく改善した。
私たちのコードはhttps://github.com/zhangyifei0115/pcpで利用可能です。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Deep Clustering with Diffused Sampling and Hardness-aware
Self-distillation [4.550555443103878]
本稿では, 拡散サンプリングと硬度認識型自己蒸留(HaDis)を併用した, エンドツーエンドの深層クラスタリング手法を提案する。
5つの課題の画像データセットの結果は、最先端のHaDis法よりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2024-01-25T09:33:49Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Implicit Sample Extension for Unsupervised Person Re-Identification [97.46045935897608]
クラスタリングは、時に異なる真のアイデンティティを混ぜ合わせたり、同じアイデンティティを2つ以上のサブクラスタに分割する。
本稿では,クラスタ境界周辺のサポートサンプルを生成するために,Implicit Sample Extension (OurWholeMethod)法を提案する。
提案手法の有効性を実証し,教師なしのRe-IDに対して最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-14T11:41:48Z) - Self-Evolutionary Clustering [1.662966122370634]
既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
論文 参考訳(メタデータ) (2022-02-21T19:38:18Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。