論文の概要: Label-Occurrence-Balanced Mixup for Long-tailed Recognition
- arxiv url: http://arxiv.org/abs/2110.04964v1
- Date: Mon, 11 Oct 2021 02:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 18:01:25.050383
- Title: Label-Occurrence-Balanced Mixup for Long-tailed Recognition
- Title(参考訳): long-tailed recognitionのためのラベル出現バランスミックスアップ
- Authors: Shaoyu Zhang, Chen Chen, Xiujuan Zhang, Silong Peng
- Abstract要約: 本稿では,各クラスにおけるラベル発生率を統計的にバランスよく保ちながら,データ量を増やすためのラベル・オクレンス・バランサード・ミックスアップを提案する。
長い視力と音声認識のベンチマークで本手法を検証した。
- 参考スコア(独自算出の注目度): 6.482544017574614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixup is a popular data augmentation method, with many variants subsequently
proposed. These methods mainly create new examples via convex combination of
random data pairs and their corresponding one-hot labels. However, most of them
adhere to a random sampling and mixing strategy, without considering the
frequency of label occurrence in the mixing process. When applying mixup to
long-tailed data, a label suppression issue arises, where the frequency of
label occurrence for each class is imbalanced and most of the new examples will
be completely or partially assigned with head labels. The suppression effect
may further aggravate the problem of data imbalance and lead to a poor
performance on tail classes. To address this problem, we propose
Label-Occurrence-Balanced Mixup to augment data while keeping the label
occurrence for each class statistically balanced. In a word, we employ two
independent class-balanced samplers to select data pairs and mix them to
generate new data. We test our method on several long-tailed vision and sound
recognition benchmarks. Experimental results show that our method significantly
promotes the adaptability of mixup method to imbalanced data and achieves
superior performance compared with state-of-the-art long-tailed learning
methods.
- Abstract(参考訳): Mixupは一般的なデータ拡張手法であり、その後多くの変種が提案されている。
これらの手法は主に、ランダムデータペアとそれに対応する1ホットラベルの凸結合による新しい例を作成する。
しかし,そのほとんどは混合過程におけるラベル発生頻度を考慮せず,ランダムサンプリングと混合戦略に固執している。
ロングテールデータにミックスアップを適用すると、各クラスに対するラベル発生頻度が不均衡になり、新しい例のほとんどがヘッドラベルで完全にまたは部分的に割り当てられるラベル抑圧問題が発生する。
この抑制効果は、データ不均衡の問題をさらに悪化させ、テールクラスのパフォーマンスが低下する可能性がある。
この問題に対処するため,各クラス毎のラベル発生量を統計的にバランスよく保ちながら,データの増大を図るラベル・オクレンス・バランサード・ミックスアップを提案する。
一言で言えば、2つの独立したクラスバランスのサンプルを用いてデータペアを選択し、それらを混合して新しいデータを生成する。
本手法を複数の長尾視覚および音響認識ベンチマークでテストした。
実験の結果,不均衡データに対するmixup法の適応性は,最先端のロングテール学習法と比較して有意に向上した。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Multi-Label Adaptive Batch Selection by Highlighting Hard and Imbalanced Samples [9.360376286221943]
本稿では,多ラベル深層学習モデルに適した適応バッチ選択アルゴリズムを提案する。
提案手法は, ランダムなバッチ選択よりも高速に収束し, 性能が向上する。
論文 参考訳(メタデータ) (2024-03-27T02:00:18Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Toward Robustness in Multi-label Classification: A Data Augmentation
Strategy against Imbalance and Noise [31.917931364881625]
マルチラベル分類は、トレーニングデータにおける不均衡なラベルとノイズの多いラベルによる課題を提起する。
本稿では,これらの課題に対処する統合データ拡張手法である BalanceMix を提案する。
提案手法には,不均衡ラベルに対する2つのサンプルが組み込まれ,多様性の高いマイノリティ拡張インスタンスが生成される。
論文 参考訳(メタデータ) (2023-12-12T09:09:45Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - Multi-Label Sampling based on Local Label Imbalance [7.355362369511579]
クラス不均衡は、ほとんどのマルチラベル学習方法を妨げるマルチラベルデータ固有の特徴である。
既存のマルチラベルサンプリングアプローチは、マルチラベルデータセットのグローバル不均衡を軽減する。
実際に、パフォーマンス劣化において重要な役割を果たすマイノリティクラス例の局所的な地区における不均衡レベルである。
論文 参考訳(メタデータ) (2020-05-07T04:14:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。