論文の概要: Difficulty-aware Balancing Margin Loss for Long-tailed Recognition
- arxiv url: http://arxiv.org/abs/2412.15477v1
- Date: Fri, 20 Dec 2024 01:11:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:24:40.988920
- Title: Difficulty-aware Balancing Margin Loss for Long-tailed Recognition
- Title(参考訳): 長期認識のための難易度対応型バランス・マージン・ロス
- Authors: Minseok Son, Inyong Koo, Jinyoung Park, Changick Kim,
- Abstract要約: 本稿では,クラス不均衡とインスタンス難易度を考慮したDBM損失を提案する。
提案手法は既存の手法とシームレスに結合し,様々な長鎖認識ベンチマークの性能を継続的に改善する。
- 参考スコア(独自算出の注目度): 17.805309043663563
- License:
- Abstract: When trained with severely imbalanced data, deep neural networks often struggle to accurately recognize classes with only a few samples. Previous studies in long-tailed recognition have attempted to rebalance biased learning using known sample distributions, primarily addressing different classification difficulties at the class level. However, these approaches often overlook the instance difficulty variation within each class. In this paper, we propose a difficulty-aware balancing margin (DBM) loss, which considers both class imbalance and instance difficulty. DBM loss comprises two components: a class-wise margin to mitigate learning bias caused by imbalanced class frequencies, and an instance-wise margin assigned to hard positive samples based on their individual difficulty. DBM loss improves class discriminativity by assigning larger margins to more difficult samples. Our method seamlessly combines with existing approaches and consistently improves performance across various long-tailed recognition benchmarks.
- Abstract(参考訳): 極めて不均衡なデータでトレーニングされた場合、ディープニューラルネットワークは、少数のサンプルでクラスを正確に認識するのに苦労することが多い。
長い尾認識における従来の研究は、既知のサンプル分布を用いてバイアス学習を再バランスさせようと試みており、主にクラスレベルでの分類の難しさに対処している。
しかしながら、これらのアプローチは、各クラス内のインスタンスの難易度の変化をしばしば見落としている。
本稿では,クラス不均衡とインスタンス難易度を考慮したDBM損失を提案する。
DBM損失は、不均衡なクラス周波数に起因する学習バイアスを軽減するためのクラスワイド・マージンと、個々の難易度に基づいてハードポジティサンプルに割り当てられるインスタンスワイド・マージンの2つのコンポーネントから構成される。
DBM損失は、より難しいサンプルにより大きなマージンを割り当てることで、クラス識別性を改善する。
提案手法は既存の手法とシームレスに結合し,様々な長鎖認識ベンチマークの性能を継続的に改善する。
関連論文リスト
- DAFA: Distance-Aware Fair Adversarial Training [34.94780532071229]
敵対的攻撃の下では、最悪のクラスからのサンプルに対するモデルの予測の大半は、最悪のクラスと同様のクラスに偏っている。
本稿では,クラス間の類似性を考慮し,頑健な公正性に対処するDAFA手法を提案する。
論文 参考訳(メタデータ) (2024-01-23T07:15:47Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Understanding Difficulty-based Sample Weighting with a Universal
Difficulty Measure [2.7413469516930578]
多くの重み付け手法は、基本的にトレーニングサンプルの学習困難を利用して重みを計算する。
サンプルの学習困難度は、ノイズレベル、不均衡度、マージン、不確実性を含む複数の要因によって決定される。
本研究では,サンプルの一般化誤差を普遍的難易度尺度として用いることができることを理論的に証明する。
論文 参考訳(メタデータ) (2023-01-12T07:28:32Z) - Difficulty-Net: Learning to Predict Difficulty for Long-Tailed
Recognition [5.977483447975081]
メタラーニングフレームワークにおいて,モデルの性能を用いてクラスの難易度を予測することを学習するDifficulty-Netを提案する。
本稿では,相対的難易度と運転者損失という2つの重要な概念を紹介する。
提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-09-07T07:04:08Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Semi-supervised learning for medical image classification using
imbalanced training data [11.87832944550453]
本稿では,摂動型SSL方式における整合性損失の代替として,適応的Blended Consistency Loss (ABCL)を提案する。
ABCLは、クラス周波数に応じて、目標とする一貫性損失のクラス分布を適応的に混合してデータスキューに対処する。
ABCLを用いた実験により,2つの不均衡な医用画像分類データセットにおける非重み付き平均リコールの改善が示された。
論文 参考訳(メタデータ) (2021-08-20T01:06:42Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。