論文の概要: Rethinking Deep Clustering Paradigms: Self-Supervision Is All You Need
- arxiv url: http://arxiv.org/abs/2503.03733v1
- Date: Wed, 05 Mar 2025 18:44:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:53:22.669255
- Title: Rethinking Deep Clustering Paradigms: Self-Supervision Is All You Need
- Title(参考訳): ディープクラスタリングのパラダイムを再考する
- Authors: Amal Shaheena, Nairouz Mrabahb, Riadh Ksantinia, Abdulla Alqaddoumia,
- Abstract要約: 自己スーパービジョンと擬似スーパービジョンのトレードオフは、3つの主要な問題を引き起こす可能性がある。
共同トレーニングは特徴ランダム性と特徴ドリフトを引き起こすが、独立したトレーニングは特徴ランダム性と特徴ツイストを引き起こす。
疑似スーパービジョンに代わる新たな戦略を,第2ラウンドの自己スーパービジョントレーニングに置き換えた新しいパラダイムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The recent advances in deep clustering have been made possible by significant progress in self-supervised and pseudo-supervised learning. However, the trade-off between self-supervision and pseudo-supervision can give rise to three primary issues. The joint training causes Feature Randomness and Feature Drift, whereas the independent training causes Feature Randomness and Feature Twist. In essence, using pseudo-labels generates random and unreliable features. The combination of pseudo-supervision and self-supervision drifts the reliable clustering-oriented features. Moreover, moving from self-supervision to pseudo-supervision can twist the curved latent manifolds. This paper addresses the limitations of existing deep clustering paradigms concerning Feature Randomness, Feature Drift, and Feature Twist. We propose a new paradigm with a new strategy that replaces pseudo-supervision with a second round of self-supervision training. The new strategy makes the transition between instance-level self-supervision and neighborhood-level self-supervision smoother and less abrupt. Moreover, it prevents the drifting effect that is caused by the strong competition between instance-level self-supervision and clustering-level pseudo-supervision. Moreover, the absence of the pseudo-supervision prevents the risk of generating random features. With this novel approach, our paper introduces a Rethinking of the Deep Clustering Paradigms, denoted by R-DC. Our model is specifically designed to address three primary challenges encountered in Deep Clustering: Feature Randomness, Feature Drift, and Feature Twist. Experimental results conducted on six datasets have shown that the two-level self-supervision training yields substantial improvements.
- Abstract(参考訳): 近年の深層クラスタリングの進歩は、自己教師付きおよび擬似教師付き学習の大幅な進歩によって実現されている。
しかし、自己スーパービジョンと擬似スーパービジョンのトレードオフは3つの主要な問題を引き起こす可能性がある。
共同トレーニングは特徴ランダム性と特徴ドリフトを引き起こすが、独立したトレーニングは特徴ランダム性と特徴ツイストを引き起こす。
本質的に、擬似ラベルを使用すると、ランダムで信頼性の低い特徴が生成される。
擬似スーパービジョンと自己スーパービジョンの組み合わせは、信頼性の高いクラスタリング指向の特徴を逸脱させる。
さらに、自己超約数から擬超約数への移動は、曲線付き潜在多様体をねじることができる。
本稿では、特徴ランダム性、特徴ドリフト、特徴ツイストに関する既存のディープクラスタリングパラダイムの限界に対処する。
疑似スーパービジョンに代わる新たな戦略を,第2ラウンドの自己スーパービジョントレーニングに置き換えた新しいパラダイムを提案する。
この新しい戦略は、インスタンスレベルのセルフスーパービジョンと近隣レベルのセルフスーパービジョンの移行を円滑にし、突然の削減を可能にする。
さらに、インスタンスレベルの自己スーパービジョンとクラスタリングレベルの擬似スーパービジョンの強い競合に起因するドリフト効果を防止する。
さらに、擬似スーパービジョンの欠如は、ランダムな特徴を生成するリスクを防ぐ。
本手法では,R-DCで表されるディープクラスタリングパラダイムを再考する。
私たちのモデルは、Deep Clusteringで遭遇した3つの主要な課題、フィーチャーランダムネス、フィーチャードリフト、フィーチャーツイストに対処するために特別に設計されています。
6つのデータセットで行った実験結果から、2段階の自己超越トレーニングが大幅に改善することが示された。
関連論文リスト
- GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - A Contrastive Variational Graph Auto-Encoder for Node Clustering [10.52321770126932]
最先端のクラスタリング手法には多くの課題がある。
既存のVGAEは、推論と生成モデルの相違を考慮していない。
私たちのソリューションには、フィーチャーランダムネスとフィーチャードリフトのトレードオフを制御する2つのメカニズムがあります。
論文 参考訳(メタデータ) (2023-12-28T05:07:57Z) - Unsupervised Gait Recognition with Selective Fusion [10.414364995179556]
教師なし歩行認識(Unsupervised Gait Recognition, UGR)を提案する。
クラスタレベルのコントラスト学習でUGRを解決するための,新しいクラスタベースベースラインを導入する。
SCF(Selective Cluster Fusion)とSSF(Selective Sample Fusion)を組み合わせたSelective Fusion法を提案する。
論文 参考訳(メタデータ) (2023-03-19T21:34:20Z) - Data Augmentation-free Unsupervised Learning for 3D Point Cloud
Understanding [61.30276576646909]
ソフトクラスタリング(SoftClu)と呼ばれる,移動可能な点レベルの特徴を学習するための,ポイントクラウドに対する拡張不要な教師なしアプローチを提案する。
我々は,クラスタに対するポイントのアフィリエイトをプロキシとして利用し,擬似ラベル予測タスクを通じて自己学習を可能にする。
論文 参考訳(メタデータ) (2022-10-06T10:18:16Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - When Does Contrastive Learning Preserve Adversarial Robustness from
Pretraining to Finetuning? [99.4914671654374]
本稿では,新しい逆比較事前学習フレームワークAdvCLを提案する。
本稿では,AdvCLがモデル精度と微調整効率を損なうことなく,タスク間の堅牢性伝達性を向上できることを示す。
論文 参考訳(メタデータ) (2021-11-01T17:59:43Z) - Guided Point Contrastive Learning for Semi-supervised Point Cloud
Semantic Segmentation [90.2445084743881]
そこで本研究では,モデル性能を向上させるために,未ラベルの点群をトレーニングに採用するための半教師付き点群セマンティックセマンティックセマンティックセマンティクスを提案する。
近年の自己監督型タスクのコントラスト損失に触発されて,特徴表現とモデル一般化能力を高めるためのガイド付きポイントコントラスト損失を提案する。
論文 参考訳(メタデータ) (2021-10-15T16:38:54Z) - Cluster-guided Asymmetric Contrastive Learning for Unsupervised Person
Re-Identification [10.678189926088669]
Re-ID(unsupervised person re-identification)は、異なるカメラビューからの歩行者イメージを教師なし環境でマッチングすることを目的としている。
教師なしのRe-IDのための既存のメソッドは通常、クラスタリングの擬似ラベル上に構築される。
本稿では、教師なしのRe-IDに対して、クラスタ誘導型非対称コントラスト学習(CACL)アプローチを提案する。
論文 参考訳(メタデータ) (2021-06-15T02:40:22Z) - Self-supervised self-supervision by combining deep learning and
probabilistic logic [10.515109852315168]
自己監督型自己スーパービジョン(S4)を提案し,新たな自己スーパービジョンを自動学習する。
S4は自動的に正確な自己スーパービジョンを提案し、監督された手法の精度を人間の努力のごく一部とほぼ一致させることができる。
論文 参考訳(メタデータ) (2020-12-23T04:06:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。