論文の概要: PROTOCOL: Partial Optimal Transport-enhanced Contrastive Learning for Imbalanced Multi-view Clustering
- arxiv url: http://arxiv.org/abs/2506.12408v1
- Date: Sat, 14 Jun 2025 08:58:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.097314
- Title: PROTOCOL: Partial Optimal Transport-enhanced Contrastive Learning for Imbalanced Multi-view Clustering
- Title(参考訳): PROTOCOL:不均衡多視点クラスタリングのための部分最適輸送強化コントラスト学習
- Authors: Xuqian Xue, Yiming Lei, Qi Cai, Hongming Shan, Junping Zhang,
- Abstract要約: 本稿では,不均衡なマルチビュークラスタリングに関する最初の体系的研究について述べる。
提案するProtoCOLは,Platial Optimal TranspOrt-enhanced Contrastive Learningフレームワークである。
ProTOCOLは,不均衡なマルチビューデータのクラスタリング性能を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 45.7495319490544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While contrastive multi-view clustering has achieved remarkable success, it implicitly assumes balanced class distribution. However, real-world multi-view data primarily exhibits class imbalance distribution. Consequently, existing methods suffer performance degradation due to their inability to perceive and model such imbalance. To address this challenge, we present the first systematic study of imbalanced multi-view clustering, focusing on two fundamental problems: i. perceiving class imbalance distribution, and ii. mitigating representation degradation of minority samples. We propose PROTOCOL, a novel PaRtial Optimal TranspOrt-enhanced COntrastive Learning framework for imbalanced multi-view clustering. First, for class imbalance perception, we map multi-view features into a consensus space and reformulate the imbalanced clustering as a partial optimal transport (POT) problem, augmented with progressive mass constraints and weighted KL divergence for class distributions. Second, we develop a POT-enhanced class-rebalanced contrastive learning at both feature and class levels, incorporating logit adjustment and class-sensitive learning to enhance minority sample representations. Extensive experiments demonstrate that PROTOCOL significantly improves clustering performance on imbalanced multi-view data, filling a critical research gap in this field.
- Abstract(参考訳): 対照的なマルチビュークラスタリングは目覚ましい成功を収めたが、暗黙的にバランスの取れたクラス分布を仮定している。
しかし、実世界のマルチビューデータは、主にクラス不均衡の分布を示す。
その結果、既存の手法は、そのような不均衡を認識・モデル化できないため、性能劣化に悩まされる。
この課題に対処するため、我々は、不均衡なマルチビュークラスタリングに関する最初の体系的研究を行い、2つの基本的な問題に焦点をあてる。
クラス不均衡の分布とiiを 知覚することです
少数派サンプルの表現劣化を緩和します
本稿では,不均衡なマルチビュークラスタリングのためのPROTOCOLを提案する。
まず、クラス不均衡知覚のために、マルチビュー特徴をコンセンサス空間にマッピングし、不均衡クラスタリングを部分最適輸送(POT)問題として再構成し、プログレッシブマス制約とクラス分布に対する重み付きKL分散を付加する。
第2に,POT強化型クラスアンバランス型コントラスト学習を特徴レベルとクラスレベルで開発し,ロジット調整とクラスセンシティブ学習を取り入れて,少数サンプル表現の強化を図る。
ProTOCOLは、不均衡なマルチビューデータのクラスタリング性能を著しく向上させ、この分野における重要な研究ギャップを埋めることを示した。
関連論文リスト
- GBRIP: Granular Ball Representation for Imbalanced Partial Label Learning [34.555684625956516]
不均衡学習のための新しいフレームワークGBRIP(Granular Ball Representation for Im Balanced)を導入する。
GBRIPは粗粒粒状球表現と多中心損失を利用して、教師なし学習を通して粒状球ベースのnfeature空間を構築する。
新たな多中心損失関数は, 粒状球内のサンプルと各中心の関係を強調することによって学習を促進する。
論文 参考訳(メタデータ) (2024-12-19T06:26:16Z) - Covariance-corrected Whitening Alleviates Network Degeneration on Imbalanced Classification [6.197116272789107]
クラス不均衡は画像分類において重要な問題であり、深層認識モデルの性能に大きな影響を及ぼす。
我々は、退化ソリューションを緩和するWhitening-Netと呼ばれる新しいフレームワークを提案する。
極端なクラス不均衡のシナリオでは、バッチ共分散統計は大きな変動を示し、白化操作の収束を妨げる。
論文 参考訳(メタデータ) (2024-08-30T10:49:33Z) - P$^2$OT: Progressive Partial Optimal Transport for Deep Imbalanced
Clustering [16.723646401890495]
深層クラスタリングのための新しい擬似ラベル学習フレームワークを提案する。
本フレームワークは,高信頼度サンプルから不均衡を意識した擬似ラベルと学習を生成する。
CIFAR100を含む様々なデータセットの実験は,本手法の優位性を実証している。
論文 参考訳(メタデータ) (2024-01-17T15:15:46Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Class-Imbalanced Graph Learning without Class Rebalancing [62.1368829847041]
クラス不均衡は実世界のノード分類タスクでよく見られ、グラフ学習モデルには大きな課題がある。
本研究では、トポロジカルパラダイムからクラス不均衡バイアスの根本原因にアプローチする。
我々は,クラス再バランスを伴わずにクラス不均衡バイアスを軽減するために,軽量なトポロジカル拡張フレームワークであるBATを考案した。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - Joint Debiased Representation and Image Clustering Learning with
Self-Supervision [3.1806743741013657]
我々は,新しい共同クラスタリングとコントラスト学習フレームワークを開発した。
不均衡なデータセットの下位クラスタ化を避けるために、デバイアスド・コントラストの損失に適応する。
論文 参考訳(メタデータ) (2022-09-14T21:23:41Z) - Targeted Supervised Contrastive Learning for Long-Tailed Recognition [50.24044608432207]
実世界のデータは、しばしば重いクラス不均衡の長い尾の分布を示す。
教師付きコントラスト学習は性能向上に寄与するが、過去のベースラインは不均衡なデータ分布によってもたらされる不均一さに悩まされている。
我々は,超球面上の特徴分布の均一性を改善するための教師付きコントラスト学習(TSC)を提案する。
論文 参考訳(メタデータ) (2021-11-27T22:40:10Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Unbalanced Incomplete Multi-view Clustering via the Scheme of View
Evolution: Weak Views are Meat; Strong Views do Eat [59.77141155608009]
不均衡不完全なマルチビュークラスタリング法(UIMC)は、不均衡不完全なマルチビュークラスタリングのためのビュー進化に基づく、最初の効果的な方法である。
UIMCは、他の最先端メソッドよりも3つの評価指標において、クラスタリングのパフォーマンスを最大40%改善する。
論文 参考訳(メタデータ) (2020-11-20T08:00:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。