論文の概要: Deep Clustering with Diffused Sampling and Hardness-aware
Self-distillation
- arxiv url: http://arxiv.org/abs/2401.14038v1
- Date: Thu, 25 Jan 2024 09:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 15:08:46.995398
- Title: Deep Clustering with Diffused Sampling and Hardness-aware
Self-distillation
- Title(参考訳): 拡散サンプリングと硬度認識自己蒸留による深層クラスタリング
- Authors: Hai-Xin Zhang and Dong Huang
- Abstract要約: 本稿では, 拡散サンプリングと硬度認識型自己蒸留(HaDis)を併用した, エンドツーエンドの深層クラスタリング手法を提案する。
5つの課題の画像データセットの結果は、最先端のHaDis法よりも優れたクラスタリング性能を示している。
- 参考スコア(独自算出の注目度): 4.550555443103878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep clustering has gained significant attention due to its capability in
learning clustering-friendly representations without labeled data. However,
previous deep clustering methods tend to treat all samples equally, which
neglect the variance in the latent distribution and the varying difficulty in
classifying or clustering different samples. To address this, this paper
proposes a novel end-to-end deep clustering method with diffused sampling and
hardness-aware self-distillation (HaDis). Specifically, we first align one view
of instances with another view via diffused sampling alignment (DSA), which
helps improve the intra-cluster compactness. To alleviate the sampling bias, we
present the hardness-aware self-distillation (HSD) mechanism to mine the
hardest positive and negative samples and adaptively adjust their weights in a
self-distillation fashion, which is able to deal with the potential imbalance
in sample contributions during optimization. Further, the prototypical
contrastive learning is incorporated to simultaneously enhance the
inter-cluster separability and intra-cluster compactness. Experimental results
on five challenging image datasets demonstrate the superior clustering
performance of our HaDis method over the state-of-the-art. Source code is
available at https://github.com/Regan-Zhang/HaDis.
- Abstract(参考訳): ラベル付きデータなしでクラスタリングフレンドリーな表現を学習できることで、ディープクラスタリングは大きな注目を集めている。
しかし,従来の深層クラスタリング手法ではすべてのサンプルを等しく扱う傾向にあり,潜伏分布のばらつきや異なるサンプルの分類やクラスタリングの困難さを無視している。
そこで本研究では, 拡散サンプリングと硬度認識型自己蒸留(HaDis)を用いた, エンドツーエンドの深層クラスタリング手法を提案する。
具体的には、まず1つのインスタンスのビューを拡散サンプリングアライメント(DSA)によって別のビューにアライメントし、クラスタ内のコンパクト性を改善する。
サンプリングバイアスを軽減するため,最強正および負の試料をマイニングし,自己蒸留方式で重量を適応的に調整し,最適化中の試料寄与の潜在的な不均衡に対処できる,硬度認識型自己蒸留(HSD)機構を提案する。
さらに、クラスタ間分離性とクラスタ内コンパクト性を同時に高めるために、原型的コントラスト学習が組み込まれている。
5つの挑戦的な画像データセットの実験結果は、最先端のhadis法よりも優れたクラスタリング性能を示している。
ソースコードはhttps://github.com/Regan-Zhang/HaDis.comで入手できる。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Fairness in Visual Clustering: A Novel Transformer Clustering Approach [32.806921406869996]
まず、クラスタの純度の観点から、ディープクラスタリングモデルにおける人口統計バイアスを評価する。
フェアネスの側面を維持するために、すべてのクラスタに対して純粋性一貫性を促進するために、新しい損失関数が導入された。
本稿では,複数クラスタ間の相関を計測する新しいアテンション機構であるクロスアテンションを提案する。
論文 参考訳(メタデータ) (2023-04-14T21:59:32Z) - Self-Evolutionary Clustering [1.662966122370634]
既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
論文 参考訳(メタデータ) (2022-02-21T19:38:18Z) - Hybrid Dynamic Contrast and Probability Distillation for Unsupervised
Person Re-Id [109.1730454118532]
非監督的人物再識別(Re-Id)は、リードワールドビデオ監視システムにおける実践的応用により注目されている。
本稿では,ハイブリッド動的クラスタコントラストと確率蒸留アルゴリズムを提案する。
教師なしRe-Id問題を局所-言語的ダイナミックコントラスト学習と自己教師付き確率蒸留の枠組みに統合する。
論文 参考訳(メタデータ) (2021-09-29T02:56:45Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Progressive Cluster Purification for Unsupervised Feature Learning [48.87365358296371]
教師なしの特徴学習では、サンプル特異性に基づく手法はクラス間の情報を無視する。
本稿では,プログレッシブクラスタ形成時にクラス不整合サンプルを除外するクラスタリングに基づく新しい手法を提案する。
我々の手法は、プログレッシブ・クラスタ・パーフィケーション(PCP)と呼ばれ、訓練中に徐々にクラスタ数を減らし、プログレッシブ・クラスタリングを実装している。
論文 参考訳(メタデータ) (2020-07-06T08:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。