論文の概要: Equilibrium contrastive learning for imbalanced image classification
- arxiv url: http://arxiv.org/abs/2602.09506v1
- Date: Tue, 10 Feb 2026 08:07:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.43837
- Title: Equilibrium contrastive learning for imbalanced image classification
- Title(参考訳): 不均衡画像分類のための平衡コントラスト学習
- Authors: Sumin Roh, Harim Kim, Ho Yun Lee, Il Yong Chun,
- Abstract要約: コントラスト学習(CL)は画像分類において主要な手法であるが,不均衡なデータセットによる限られた性能を示した。
近年, 理想的な正則な幾何学的構成を促進するために, いくつかの教師付きCL法が提案されている。
本稿では,幾何平衡を促進するために設計されたCLフレームワークであるEquilibrium Contrastive Learning (ECL)を提案する。
- 参考スコア(独自算出の注目度): 5.198140836737882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning (CL) is a predominant technique in image classification, but they showed limited performance with an imbalanced dataset. Recently, several supervised CL methods have been proposed to promote an ideal regular simplex geometric configuration in the representation space-characterized by intra-class feature collapse and uniform inter-class mean spacing, especially for imbalanced datasets. In particular, existing prototype-based methods include class prototypes, as additional samples to consider all classes. However, the existing CL methods suffer from two limitations. First, they do not consider the alignment between the class means/prototypes and classifiers, which could lead to poor generalization. Second, existing prototype-based methods treat prototypes as only one additional sample per class, making their influence depend on the number of class instances in a batch and causing unbalanced contributions across classes. To address these limitations, we propose Equilibrium Contrastive Learning (ECL), a supervised CL framework designed to promote geometric equilibrium, where class features, means, and classifiers are harmoniously balanced under data imbalance. The proposed ECL framework uses two main components. First, ECL promotes the representation geometric equilibrium (i.e., a regular simplex geometry characterized by collapsed class samples and uniformly distributed class means), while balancing the contributions of class-average features and class prototypes. Second, ECL establishes a classifier-class center geometric equilibrium by aligning classifier weights and class prototypes. We ran experiments with three long-tailed datasets, the CIFAR-10(0)-LT, ImageNet-LT, and the two imbalanced medical datasets, the ISIC 2019 and our constructed LCCT dataset. Results show that ECL outperforms existing SOTA supervised CL methods designed for imbalanced classification.
- Abstract(参考訳): コントラスト学習(CL)は画像分類において主要な手法であるが,不均衡なデータセットによる限られた性能を示した。
近年, クラス内特徴崩壊とクラス間平均間隔の均一化により特徴付けられる表現空間において, 理想的な正規直交幾何学的構成を促進するために, 教師付きCL法が提案されている。
特に、既存のプロトタイプベースのメソッドには、すべてのクラスを考慮するための追加のサンプルとして、クラスプロトタイプが含まれている。
しかし、既存のCLメソッドには2つの制限がある。
まず、クラス平均/プロトタイプと分類器のアライメントを考慮せず、一般化が不十分になる可能性がある。
第2に、既存のプロトタイプベースのメソッドは、プロトタイプをクラス毎に1つの追加サンプルとして扱うことで、バッチ内のクラスインスタンスの数に依存し、クラス間で不均衡なコントリビューションを引き起こします。
これらの制約に対処するために、クラス特徴、手段、分類器がデータ不均衡の下で調和的にバランスをとるような幾何平衡を促進するために設計された教師付きCLフレームワークであるEquilibrium Contrastive Learning (ECL)を提案する。
提案されているECLフレームワークには2つの主要コンポーネントがある。
第一に、ECLは、クラス平均的特徴とクラスプロトタイプの寄与のバランスを保ちながら、表現幾何学的平衡(すなわち、崩壊したクラスサンプルと均一に分散されたクラス平均によって特徴づけられる正規の単純な幾何学)を促進する。
第二に、ECLは分類器重みとクラスプロトタイプを整列させることにより、分類器級中心幾何学平衡を確立する。
我々は、長い尾を持つ3つのデータセット、CIFAR-10(0)-LT、ImageNet-LT、および2つの不均衡な医療データセット、ISIC 2019と構築されたLCCTデータセットで実験を行った。
その結果、ECLは、不均衡な分類のために設計された既存のSOTA制御CL法よりも優れていた。
関連論文リスト
- Subclass-balancing Contrastive Learning for Long-tailed Recognition [38.31221755013738]
不均衡なクラス分布を持つロングテール認識は、実践的な機械学習アプリケーションで自然に現れる。
そこで我々は,各ヘッドクラスを複数のサブクラスにクラスタリングする,新しいサブクラスバランス・コントラッシブ・ラーニング・アプローチを提案する。
我々は,長期化ベンチマークデータセットの一覧からSBCLを評価し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-28T05:08:43Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - Overlapping oriented imbalanced ensemble learning method based on
projective clustering and stagewise hybrid sampling [22.32930261633615]
本稿では、二重クラスタリングとステージワイドハイブリッドサンプリング(DCSHS)に基づくアンサンブル学習アルゴリズムを提案する。
我々のアルゴリズムの大きな利点は、重なり合う多数サンプルのソフトな除去を実現するためにCSの交叉性を利用することができることである。
論文 参考訳(メタデータ) (2022-11-30T01:49:06Z) - Invariant Feature Learning for Generalized Long-Tailed Classification [63.97988111638796]
我々は,両種類の不均衡を共同で検討するために,一般化長大分類(GLT)を導入する。
提案した2つのベンチマーク(ImageNet-GLTとMSCOCO-GLT)では,ほとんどのクラスワイドLTメソッドが退化している。
GLTの最初の強力なベースラインとして不変特徴学習(IFL)法を提案する。
論文 参考訳(メタデータ) (2022-07-19T18:27:42Z) - An Asymmetric Contrastive Loss for Handling Imbalanced Datasets [0.0]
ACLと呼ばれる非対称なCLを導入し、クラス不均衡の問題に対処する。
さらに,非対称な焦点コントラスト損失(AFCL)をACLと焦点コントラスト損失の両方のさらなる一般化として提案する。
FMNISTとISIC 2018の不均衡データセットの結果、AFCLは重み付けと非重み付けの両方の分類精度でCLとFCLを上回っていることが示された。
論文 参考訳(メタデータ) (2022-07-14T17:30:13Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Population structure-learned classifier for high-dimension
low-sample-size class-imbalanced problem [3.411873646414169]
集団構造学習型分類器(PSC)を提案する。
PSCは、IHDLSS上でのより優れた一般化性能を得ることができる。
PSCはIHDLSSの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-09-10T08:33:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。