論文の概要: No One Left Behind: Improving the Worst Categories in Long-Tailed
Learning
- arxiv url: http://arxiv.org/abs/2303.03630v1
- Date: Tue, 7 Mar 2023 03:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 16:35:32.137908
- Title: No One Left Behind: Improving the Worst Categories in Long-Tailed
Learning
- Title(参考訳): 一人残らず:長期学習における最悪のカテゴリーの改善
- Authors: Yingxiao Du, Jianxin Wu
- Abstract要約: このような評価設定の下では、いくつかのカテゴリは必然的に犠牲にされます。
多様な手法に適用可能な簡易なプラグイン法を提案する。
- 参考スコア(独自算出の注目度): 29.89394406438639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike the case when using a balanced training dataset, the per-class recall
(i.e., accuracy) of neural networks trained with an imbalanced dataset are
known to vary a lot from category to category. The convention in long-tailed
recognition is to manually split all categories into three subsets and report
the average accuracy within each subset. We argue that under such an evaluation
setting, some categories are inevitably sacrificed. On one hand, focusing on
the average accuracy on a balanced test set incurs little penalty even if some
worst performing categories have zero accuracy. On the other hand, classes in
the "Few" subset do not necessarily perform worse than those in the "Many" or
"Medium" subsets. We therefore advocate to focus more on improving the lowest
recall among all categories and the harmonic mean of all recall values.
Specifically, we propose a simple plug-in method that is applicable to a wide
range of methods. By simply re-training the classifier of an existing
pre-trained model with our proposed loss function and using an optional
ensemble trick that combines the predictions of the two classifiers, we achieve
a more uniform distribution of recall values across categories, which leads to
a higher harmonic mean accuracy while the (arithmetic) average accuracy is
still high. The effectiveness of our method is justified on widely used
benchmark datasets.
- Abstract(参考訳): バランストレーニングデータセットを使用する場合とは異なり、不バランスデータセットでトレーニングされたニューラルネットワークのクラス毎のリコール(すなわち精度)は、カテゴリによって大きく異なることが知られている。
ロングテール認識の慣例は、すべてのカテゴリを手動で3つのサブセットに分割し、各サブセットの平均精度を報告することである。
このような評価設定の下では、いくつかのカテゴリは必然的に犠牲にされます。
一方、バランスの取れたテストセットの平均精度に注目すると、最悪のパフォーマンスカテゴリの精度がゼロであってもペナルティはほとんど生じない。
一方、"few" サブセットのクラスは、必ずしも "many" や "medium" サブセットのクラスよりもパフォーマンスが悪いわけではない。
したがって、すべてのカテゴリにおいて最も低いリコールと全てのリコール値の調和平均を改善することに注力することを推奨する。
具体的には,多様な手法に適用可能な簡易なプラグイン手法を提案する。
既存の事前学習モデルの分類器を本提案の損失関数で再訓練し,2つの分類器の予測を結合したオプショナルアンサンブルトリックを用いることで,カテゴリ間でのリコール値の均一な分布を実現し,高調波平均精度が向上する一方で,(有意な)平均精度も高い。
提案手法の有効性は,広く使用されているベンチマークデータセット上で正当化される。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Reviving Undersampling for Long-Tailed Learning [16.054442161144603]
我々は,最低性能カテゴリーの精度を高め,調和平均と幾何平均を用いてモデルの性能を評価することを目的とする。
我々は,余分なオーバーヘッドを伴わず,高調波平均と幾何平均を改良したモデルアンサンブル戦略を考案した。
提案手法の有効性を,長期学習のための広く利用されているベンチマークデータセットに検証する。
論文 参考訳(メタデータ) (2024-01-30T08:15:13Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Mutual Exclusive Modulator for Long-Tailed Recognition [12.706961256329572]
ロングテール認識は、カテゴリー間で極めて不均衡なトレーニングサンプルを与えられた高性能分類器を学習するタスクである。
各グループに属する画像の確率を推定できる相互排他変調器を導入する。
提案手法は,最先端のベンチマークと比較すると,競争性能が向上する。
論文 参考訳(メタデータ) (2023-02-19T07:31:49Z) - Review of Methods for Handling Class-Imbalanced in Classification
Problems [0.0]
場合によっては、あるクラスはほとんどの例を含むが、他方はより重要なクラスであり、しかしながら、少数の例で表される。
本稿では、データレベル、アルゴリズムレベル、ハイブリッド、コスト感受性学習、ディープラーニングを含む、クラス不均衡による学習の問題に対処する最も広く使われている手法について検討する。
論文 参考訳(メタデータ) (2022-11-10T10:07:10Z) - Throwing Away Data Improves Worst-Class Error in Imbalanced
Classification [36.91428748713018]
クラス不均衡は分類問題に悪影響を及ぼすが、その治療は理論と実践において異なる。
本稿では,線形分離可能なデータに対する分類器の誤りを記述できる学習理論の開発に挑戦する。
論文 参考訳(メタデータ) (2022-05-23T23:43:18Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。