論文の概要: Targeted Supervised Contrastive Learning for Long-Tailed Recognition
- arxiv url: http://arxiv.org/abs/2111.13998v1
- Date: Sat, 27 Nov 2021 22:40:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 10:26:35.655264
- Title: Targeted Supervised Contrastive Learning for Long-Tailed Recognition
- Title(参考訳): ロングテール認識のための教師付きコントラスト学習
- Authors: Tianhong Li, Peng Cao, Yuan Yuan, Lijie Fan, Yuzhe Yang, Rogerio
Feris, Piotr Indyk, Dina Katabi
- Abstract要約: 実世界のデータは、しばしば重いクラス不均衡の長い尾の分布を示す。
教師付きコントラスト学習は性能向上に寄与するが、過去のベースラインは不均衡なデータ分布によってもたらされる不均一さに悩まされている。
我々は,超球面上の特徴分布の均一性を改善するための教師付きコントラスト学習(TSC)を提案する。
- 参考スコア(独自算出の注目度): 50.24044608432207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world data often exhibits long tail distributions with heavy class
imbalance, where the majority classes can dominate the training process and
alter the decision boundaries of the minority classes. Recently, researchers
have investigated the potential of supervised contrastive learning for
long-tailed recognition, and demonstrated that it provides a strong performance
gain. In this paper, we show that while supervised contrastive learning can
help improve performance, past baselines suffer from poor uniformity brought in
by imbalanced data distribution. This poor uniformity manifests in samples from
the minority class having poor separability in the feature space. To address
this problem, we propose targeted supervised contrastive learning (TSC), which
improves the uniformity of the feature distribution on the hypersphere. TSC
first generates a set of targets uniformly distributed on a hypersphere. It
then makes the features of different classes converge to these distinct and
uniformly distributed targets during training. This forces all classes,
including minority classes, to maintain a uniform distribution in the feature
space, improves class boundaries, and provides better generalization even in
the presence of long-tail data. Experiments on multiple datasets show that TSC
achieves state-of-the-art performance on long-tailed recognition tasks.
- Abstract(参考訳): 実世界のデータは、多くのクラスがトレーニングプロセスを支配し、マイノリティクラスの決定境界を変更することができる、重いクラス不均衡を伴う長い尾の分布を示すことが多い。
近年,ロングテール認識のための教師付きコントラスト学習の可能性が調査され,高い性能向上が期待できることを示した。
本稿では,教師付きコントラスト学習が性能向上に寄与する一方で,不均衡なデータ分布による過去のベースラインの不均一さに悩まされていることを示す。
この貧弱な均一性は、特徴空間における分離性の低いマイノリティクラスのサンプルに現れる。
この問題に対処するために,超球面上の特徴分布の均一性を改善するための教師付きコントラスト学習(TSC)を提案する。
TSCはまず、超球面上に均一に分布するターゲットの集合を生成する。
そして、トレーニング中に異なるクラスの特徴をこれらの異なる、均一に分散したターゲットに収束させる。
これにより、マイノリティクラスを含むすべてのクラスは、特徴空間における均一な分布を維持し、クラス境界を改善し、ロングテールデータの存在下でもより良い一般化を提供する。
複数のデータセットの実験により、TSCは長い尾の認識タスクで最先端のパフォーマンスを達成することが示された。
関連論文リスト
- Distribution-Aware Robust Learning from Long-Tailed Data with Noisy Labels [8.14255560923536]
実世界のデータは、しばしば長い尾の分布とラベルノイズを示し、一般化性能を著しく低下させる。
近年の研究では,各クラス内の高信頼度サンプルに基づいて,各クラスのセントロイドを推定するノイズの多いサンプル選択手法に焦点が当てられている。
そこで我々は,分散型サンプル選択・コントラスト学習(DaSC)を提案し,拡張型セントロイドを生成する。
論文 参考訳(メタデータ) (2024-07-23T19:06:15Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Combating Representation Learning Disparity with Geometric Harmonization [50.29859682439571]
本稿では,表現学習におけるカテゴリレベルの均一性を促進するために,新しい幾何調和法を提案する。
我々の提案はSSLの設定を変更せず、低コストで既存のメソッドに容易に統合できる。
論文 参考訳(メタデータ) (2023-10-26T17:41:11Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Class-Aware Universum Inspired Re-Balance Learning for Long-Tailed
Recognition [24.35287225775304]
長期認識のためのクラス認識大学インスパイアされた再バランス学習(CaUIRL)
外部データに頼らずにクラス認識ユニバーサム(CaU)データを自動生成する高次混合手法を開発した。
論文 参考訳(メタデータ) (2022-07-26T11:03:39Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [145.73991900239017]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。