論文の概要: P$^2$OT: Progressive Partial Optimal Transport for Deep Imbalanced
Clustering
- arxiv url: http://arxiv.org/abs/2401.09266v1
- Date: Wed, 17 Jan 2024 15:15:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 15:39:00.736758
- Title: P$^2$OT: Progressive Partial Optimal Transport for Deep Imbalanced
Clustering
- Title(参考訳): P$^2$OT: 深い不均衡クラスタリングのためのプログレッシブ部分最適輸送
- Authors: Chuyu Zhang, Hui Ren, Xuming He
- Abstract要約: 深層クラスタリングのための新しい擬似ラベル学習フレームワークを提案する。
本フレームワークは,高信頼度サンプルから不均衡を意識した擬似ラベルと学習を生成する。
CIFAR100を含む様々なデータセットの実験は,本手法の優位性を実証している。
- 参考スコア(独自算出の注目度): 16.723646401890495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep clustering, which learns representation and semantic clustering without
labels information, poses a great challenge for deep learning-based approaches.
Despite significant progress in recent years, most existing methods focus on
uniformly distributed datasets, significantly limiting the practical
applicability of their methods. In this paper, we first introduce a more
practical problem setting named deep imbalanced clustering, where the
underlying classes exhibit an imbalance distribution. To tackle this problem,
we propose a novel pseudo-labeling-based learning framework. Our framework
formulates pseudo-label generation as a progressive partial optimal transport
problem, which progressively transports each sample to imbalanced clusters
under prior distribution constraints, thus generating imbalance-aware
pseudo-labels and learning from high-confident samples. In addition, we
transform the initial formulation into an unbalanced optimal transport problem
with augmented constraints, which can be solved efficiently by a fast matrix
scaling algorithm. Experiments on various datasets, including a human-curated
long-tailed CIFAR100, challenging ImageNet-R, and large-scale subsets of
fine-grained iNaturalist2018 datasets, demonstrate the superiority of our
method.
- Abstract(参考訳): ラベル情報なしで表現とセマンティッククラスタリングを学習するディープクラスタリングは、ディープラーニングベースのアプローチにおいて大きな課題となる。
近年の大きな進歩にもかかわらず、既存の手法の多くは一様分散データセットにフォーカスしており、その方法の実用的適用性が著しく制限されている。
本稿では,まず,下位クラスが不均衡分布を示す深層不均衡クラスタリングという,より実用的な問題設定を提案する。
この問題に対処するために,新しい擬似ラベル学習フレームワークを提案する。
本フレームワークは, 擬似ラベル生成を段階的部分的最適輸送問題として定式化し, 先行分布制約下で各サンプルを段階的に不均衡クラスタに輸送し, 疑似ラベルの生成と高信頼サンプルからの学習を行う。
さらに,初期定式化を拡張制約付き不均衡最適輸送問題に変換し,高速行列スケーリングアルゴリズムにより効率的に解くことができる。
CIFAR100、ImageNet-R、細粒度iNaturalist2018データセットの大規模サブセットなど、さまざまなデータセットの実験は、我々の方法の優位性を実証している。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - SP$^2$OT: Semantic-Regularized Progressive Partial Optimal Transport for Imbalanced Clustering [14.880015659013681]
本稿では,トランスポートをベースとした新しい擬似ラベル学習フレームワークを提案する。
本フレームワークは,擬似ラベル生成をセマンティック正規化プログレッシブ部分最適輸送問題として定式化する。
我々は、SP$2$OT問題をプログレッシブ部分最適輸送問題に再構成するために、偏化戦略を採用する。
論文 参考訳(メタデータ) (2024-04-04T13:46:52Z) - A provable initialization and robust clustering method for general mixture models [6.806940901668607]
クラスタリングは、異種データの存在下での統計機械学習の基本的なツールである。
最新の結果は、ガウス以下の誤差を伴うセントロイドの周りにデータが分散されている場合に、最適なラベルの誤りを保証することに焦点が当てられている。
論文 参考訳(メタデータ) (2024-01-10T22:56:44Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Class-Imbalanced Complementary-Label Learning via Weighted Loss [8.934943507699131]
補完ラベル学習(Complementary-label Learning, CLL)は、弱い教師付き分類において広く用いられている。
クラス不均衡のトレーニングサンプルに直面すると、現実世界のデータセットでは大きな課題に直面します。
多クラス分類のためのクラス不均衡補完ラベルからの学習を可能にする新しい問題設定を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:02:42Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Solving The Long-Tailed Problem via Intra- and Inter-Category Balance [17.04366558952357]
ビジュアル認識のためのベンチマークデータセットは、データが均一に分散されていると仮定し、現実のデータセットは長い尾の分布に従う。
現在のアプローチでは、長い尾のデータセットを再サンプリングや再重み付け戦略によって均一な分散に変換するために、長い尾の問題を処理している。
そこで本研究では, カテゴリー適応精度を持つ新しい勾配調和機構を提案し, 長期化問題における難易度とサンプルサイズ不均衡を分離する。
論文 参考訳(メタデータ) (2022-04-20T05:36:20Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。