論文の概要: CUDA: Curriculum of Data Augmentation for Long-Tailed Recognition
- arxiv url: http://arxiv.org/abs/2302.05499v1
- Date: Fri, 10 Feb 2023 20:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 20:04:46.849810
- Title: CUDA: Curriculum of Data Augmentation for Long-Tailed Recognition
- Title(参考訳): CUDA:Long-Tailed Recognitionのためのデータ拡張カリキュラム
- Authors: Sumyeong Ahn, Jongwoo Ko, Se-Young Yun
- Abstract要約: クラス不均衡問題は現実世界のタスクで頻繁に発生する。
この問題を軽減するために、多くのアプローチがトレーニングサンプルの再重み付けや再サンプリングによって、各クラス間でバランスをとることを目標にしている。
これらの再バランス手法は、マイノリティクラスの影響を増大させ、モデルの出力に対する多数派クラスの影響を減少させる。
多数サンプルの特徴によって少数サンプルの表現を増大させる手法が開発されている。
- 参考スコア(独自算出の注目度): 10.441880303257468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class imbalance problems frequently occur in real-world tasks, and
conventional deep learning algorithms are well known for performance
degradation on imbalanced training datasets. To mitigate this problem, many
approaches have aimed to balance among given classes by re-weighting or
re-sampling training samples. These re-balancing methods increase the impact of
minority classes and reduce the influence of majority classes on the output of
models. However, the extracted representations may be of poor quality owing to
the limited number of minority samples. To handle this restriction, several
methods have been developed that increase the representations of minority
samples by leveraging the features of the majority samples. Despite extensive
recent studies, no deep analysis has been conducted on determination of classes
to be augmented and strength of augmentation has been conducted. In this study,
we first investigate the correlation between the degree of augmentation and
class-wise performance, and find that the proper degree of augmentation must be
allocated for each class to mitigate class imbalance problems. Motivated by
this finding, we propose a simple and efficient novel curriculum, which is
designed to find the appropriate per-class strength of data augmentation,
called CUDA: CUrriculum of Data Augmentation for long-tailed recognition. CUDA
can simply be integrated into existing long-tailed recognition methods. We
present the results of experiments showing that CUDA effectively achieves
better generalization performance compared to the state-of-the-art method on
various imbalanced datasets such as CIFAR-100-LT, ImageNet-LT, and iNaturalist
2018.
- Abstract(参考訳): クラス不均衡問題は実世界のタスクで頻繁に発生し、従来のディープラーニングアルゴリズムは不均衡なトレーニングデータセットのパフォーマンス劣化でよく知られている。
この問題を軽減するために、多くのアプローチがトレーニングサンプルの再重み付けや再サンプリングによって、各クラス間でバランスをとることを目指している。
これらの再バランス手法はマイノリティクラスの影響を増加させ、モデル出力に対する多数派クラスの影響を減少させる。
しかしながら、抽出された表現は少数サンプルの数が限られているため品質が劣る可能性がある。
この制約に対処するため,多数サンプルの特徴を活用することで少数サンプルの表現を増大させる手法が開発されている。
近年の広範な研究にもかかわらず、強化すべきクラスの決定や強化の強さに関する深い分析は行われていない。
本研究では,まず,増級度と等級性能の相関について検討し,各クラスに対して等級不均衡問題を緩和する適切な増級度を割り当てなければならないことを示す。
そこで本研究では, CUDA: CUrriculum of Data Augmentation for long-tailed Recognition という,データ拡張のクラスごとの強度を求めるための, シンプルで効率的な新しいカリキュラムを提案する。
CUDAは、単に既存の長い尾の認識方法に統合できる。
CIFAR-100-LT, ImageNet-LT, iNaturalist 2018など, 各種不均衡データセットの最先端手法と比較して, CUDAが効率的な一般化性能を実現することを示す実験結果を示す。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - An Efficient Replay for Class-Incremental Learning with Pre-trained Models [0.0]
授業増分学習では,各クラス中心で案内される重み間の定常状態が破壊され,忘れることと大きく相関する。
忘れを克服する新しい方法を提案する。
論文 参考訳(メタデータ) (2024-08-15T11:26:28Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Combating Representation Learning Disparity with Geometric Harmonization [50.29859682439571]
本稿では,表現学習におけるカテゴリレベルの均一性を促進するために,新しい幾何調和法を提案する。
我々の提案はSSLの設定を変更せず、低コストで既存のメソッドに容易に統合できる。
論文 参考訳(メタデータ) (2023-10-26T17:41:11Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Imbalanced Classification via Explicit Gradient Learning From Augmented
Data [0.0]
本稿では、与えられた不均衡なデータセットを新しいマイノリティインスタンスに拡張する、新しい深層メタラーニング手法を提案する。
提案手法の利点は, 種々の不均衡比を持つ合成および実世界のデータセット上で実証される。
論文 参考訳(メタデータ) (2022-02-21T22:16:50Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Minority Class Oversampling for Tabular Data with Deep Generative Models [4.976007156860967]
オーバーサンプリングによる非バランスな分類タスクの性能向上を図るために, 深層生成モデルを用いて現実的なサンプルを提供する能力について検討した。
実験の結果,サンプリング手法は品質に影響を与えないが,実行環境は様々であることがわかった。
また、性能指標の点でも改善が重要であるが、絶対的な点では小さな点がしばしば見られる。
論文 参考訳(メタデータ) (2020-05-07T21:35:57Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。