論文の概要: Enhanced Long-Tailed Recognition with Contrastive CutMix Augmentation
- arxiv url: http://arxiv.org/abs/2407.04911v1
- Date: Sat, 6 Jul 2024 01:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 21:57:27.509059
- Title: Enhanced Long-Tailed Recognition with Contrastive CutMix Augmentation
- Title(参考訳): Contrastive CutMix Augmentation を用いたLong-Tailed 認識の高速化
- Authors: Haolin Pan, Yong Guo, Mianjie Yu, Jian Chen,
- Abstract要約: 本稿では,長期認識の性能を高めるために,意味的に一貫したラベルを持つ拡張サンプルを構築するContrastive CutMixを提案する。
実験の結果,我々のConCutMixはテールクラスの精度と全体的な性能を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 10.208913996525055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world data often follows a long-tailed distribution, where a few head classes occupy most of the data and a large number of tail classes only contain very limited samples. In practice, deep models often show poor generalization performance on tail classes due to the imbalanced distribution. To tackle this, data augmentation has become an effective way by synthesizing new samples for tail classes. Among them, one popular way is to use CutMix that explicitly mixups the images of tail classes and the others, while constructing the labels according to the ratio of areas cropped from two images. However, the area-based labels entirely ignore the inherent semantic information of the augmented samples, often leading to misleading training signals. To address this issue, we propose a Contrastive CutMix (ConCutMix) that constructs augmented samples with semantically consistent labels to boost the performance of long-tailed recognition. Specifically, we compute the similarities between samples in the semantic space learned by contrastive learning, and use them to rectify the area-based labels. Experiments show that our ConCutMix significantly improves the accuracy on tail classes as well as the overall performance. For example, based on ResNeXt-50, we improve the overall accuracy on ImageNet-LT by 3.0% thanks to the significant improvement of 3.3% on tail classes. We highlight that the improvement also generalizes well to other benchmarks and models. Our code and pretrained models are available at https://github.com/PanHaulin/ConCutMix.
- Abstract(参考訳): 現実世界のデータはしばしば長い尾の分布に従っており、いくつかのヘッドクラスがデータの大半を占め、多くのテールクラスはごく限られたサンプルしか含まない。
実際には、深いモデルでは、不均衡分布のため、テールクラスでの一般化性能が劣ることが多い。
これを解決するために、テールクラスのための新しいサンプルを合成することで、データ拡張が有効な方法となっている。
そのうちの1つは、テールクラスのイメージを明示的に混合するCutMixを使用することで、2つの画像から取得した領域の比率に応じてラベルを構築するのが一般的な方法である。
しかし、エリアベースのラベルは、強化されたサンプルの固有の意味情報を完全に無視し、しばしば誤った訓練信号を引き起こす。
この問題に対処するため,コントラスト型カットミクス (ConCutMix) を提案する。
具体的には、コントラスト学習によって学習された意味空間のサンプル間の類似性を計算し、それをエリアベースラベルの修正に利用する。
実験の結果、私たちのConCutMixはテールクラスの精度と全体的なパフォーマンスを大幅に改善します。
例えば、ResNeXt-50に基づいて、テールクラスの3.3%の大幅な改善により、ImageNet-LTの全体的な精度を3.0%改善する。
この改善は、他のベンチマークやモデルにも当てはまります。
私たちのコードと事前トレーニングされたモデルはhttps://github.com/PanHaulin/ConCutMix.comで公開されています。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - BackMix: Mitigating Shortcut Learning in Echocardiography with Minimal Supervision [1.3708815960776262]
本稿では,BackMix という,シンプルで効果的なバックグラウンド拡張手法を提案する。
背景を結果と無関係にすることで、モデルは超音波セクター内のデータに集中することを学ぶ。
提案手法を半教師付き環境で拡張し, セグメンテーションラベルの5%以下で, BackMixの正の効果が維持されていることを確認した。
論文 参考訳(メタデータ) (2024-06-27T13:06:47Z) - Global and Local Mixture Consistency Cumulative Learning for Long-tailed
Visual Recognitions [8.925666400268502]
我々は,Global and Local Mixture Consistency cumulency Learning (GLMC) と呼ばれる,長距離視覚認識のための効率的なワンステージ学習戦略を提案する。
提案手法は, CIFAR10-LT, CIFAR100-LT, ImageNet-LTデータセットにおける最先端の精度を実現する。
論文 参考訳(メタデータ) (2023-05-15T14:09:09Z) - SelecMix: Debiased Learning by Contradicting-pair Sampling [39.613595678105845]
ERMでトレーニングされたニューラルネットワークは、トレーニングデータがバイアスを受けたときに意図しない決定ルールを学ぶ。
トレーニング例の凸結合を生成するために,Mixupをベースとした代替案を提案する。
SelecMixと呼ばれるこの手法は、(i)同一のラベルを示すが、(ii)異なるラベルを示すか、または(ii)類似のバイアスを持つ特徴を示すものとして定義される、矛盾する例のペアにミックスアップを適用する。
論文 参考訳(メタデータ) (2022-11-04T07:15:36Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - Label-Noise Learning with Intrinsically Long-Tailed Data [65.41318436799993]
本稿では,本質的な長期データを用いたラベルノイズ学習のための学習フレームワークを提案する。
具体的には, 2段階の2次元試料選択法(TABASCO)を提案する。
論文 参考訳(メタデータ) (2022-08-21T07:47:05Z) - Feature Generation for Long-tail Classification [36.186909933006675]
そこで本研究では,テールカテゴリーの分布を推定して有意義な特徴を生成する方法を示す。
また、t-SNE視覚化を用いて生成した特徴の質的分析を行い、末尾クラス分布のキャリブレーションに最も近い隣人を解析する。
論文 参考訳(メタデータ) (2021-11-10T21:34:29Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。