論文の概要: Feature-Balanced Loss for Long-Tailed Visual Recognition
- arxiv url: http://arxiv.org/abs/2305.10772v1
- Date: Thu, 18 May 2023 07:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 16:22:27.813242
- Title: Feature-Balanced Loss for Long-Tailed Visual Recognition
- Title(参考訳): 長尾視覚認識における特徴バランス損失
- Authors: Mengke Li, Yiu-ming Cheung, Juyong Jiang
- Abstract要約: 深層ニューラルネットワークは、トレーニングデータが長期化されている場合、しばしばパフォーマンス劣化に悩まされる。
本稿では,特徴空間から長鎖問題に対処し,特徴バランス損失を提案する。
複数の人気のあるロングテール認識ベンチマークの実験は、特徴バランスの取れた損失が最先端の手法と比較して優れた性能向上を達成することを示した。
- 参考スコア(独自算出の注目度): 36.974139534723825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks frequently suffer from performance degradation when the
training data is long-tailed because several majority classes dominate the
training, resulting in a biased model. Recent studies have made a great effort
in solving this issue by obtaining good representations from data space, but
few of them pay attention to the influence of feature norm on the predicted
results. In this paper, we therefore address the long-tailed problem from
feature space and thereby propose the feature-balanced loss. Specifically, we
encourage larger feature norms of tail classes by giving them relatively
stronger stimuli. Moreover, the stimuli intensity is gradually increased in the
way of curriculum learning, which improves the generalization of the tail
classes, meanwhile maintaining the performance of the head classes. Extensive
experiments on multiple popular long-tailed recognition benchmarks demonstrate
that the feature-balanced loss achieves superior performance gains compared
with the state-of-the-art methods.
- Abstract(参考訳): 深層ニューラルネットワークは、トレーニングデータがロングテールの場合、多くのクラスがトレーニングを支配し、偏りのあるモデルになるため、しばしばパフォーマンス低下に苦しむ。
近年の研究では、データ空間から良好な表現を得ることでこの問題の解決に尽力しているが、予測結果に対する特徴規範の影響に注意を払う人は少ない。
そこで本稿では,特徴空間からの長期化問題に対処し,特徴バランス損失を提案する。
具体的には、比較的強い刺激を与えることで、テールクラスのより大きな特徴規範を奨励する。
さらに,本科の成績を保ちながら,学級の一般化を向上させるカリキュラム学習の過程で,刺激強度が徐々に高まっていく。
複数の一般的なlong-tailed recognitionベンチマークでの広範な実験は、機能バランスの損失が最先端の手法よりも優れたパフォーマンス向上を達成していることを示している。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - LCReg: Long-Tailed Image Classification with Latent Categories based
Recognition [81.5551335554507]
本稿では,Lar-tail Recognition(LCReg)法を提案する。
我々の仮説は、頭と尾のクラスで共有される一般的な潜伏的特徴は、特徴表現を改善するために使用できるというものである。
具体的には、頭と尾の両方で共有されるクラス非依存の潜伏特徴の集合を学習し、潜伏特徴のセマンティックデータ拡張を用いてトレーニングサンプルの多様性を暗黙的に増加させる。
論文 参考訳(メタデータ) (2023-09-13T02:03:17Z) - Fairness Improves Learning from Noisily Labeled Long-Tailed Data [119.0612617460727]
長い尾とノイズの多いラベル付きデータは、現実世界のアプリケーションに頻繁に現れ、学習に重大な課題を課す。
2つのサブポピュレーション間のパフォーマンスギャップを正規化することから着想を得たFairness Regularizer(FR)を導入する。
導入したフェアネス正則化器は,尾部のサブポピュレーションと全体的な学習性能を向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T03:46:51Z) - Long-tailed Recognition by Learning from Latent Categories [70.6272114218549]
本稿ではLatent Categories based long-tail Recognition (LCReg)法を提案する。
具体的には、頭と尾のクラス間で共有されるクラスに依存しない潜在機能群を学習する。
次に、潜在機能に意味データ拡張を適用することで、トレーニングサンプルの多様性を暗黙的に強化する。
論文 参考訳(メタデータ) (2022-06-02T12:19:51Z) - A Survey on Long-Tailed Visual Recognition [13.138929184395423]
我々は、長い尾を持つデータ分布に起因する問題に焦点をあて、代表的な長い尾を持つ視覚認識データセットを整理し、いくつかの主流の長い尾を持つ研究を要約する。
Gini係数に基づいて、過去10年間に提案された20の広範に利用されている大規模ビジュアルデータセットを定量的に研究する。
論文 参考訳(メタデータ) (2022-05-27T06:22:55Z) - Distributional Robustness Loss for Long-tail Learning [20.800627115140465]
現実世界のデータはしばしばアンバランスで長尾ですが、深いモデルは頻繁なクラスの存在下でまれなクラスを認識するのに苦労します。
ディープネットワークの特徴抽出器部分は,このバイアスに大きく悩まされていることを示す。
モデルが頭と尾の両方のクラスで高品質の表現を学ぶことを奨励するロバストネス理論に基づく新しい損失を提案します。
論文 参考訳(メタデータ) (2021-04-07T11:34:04Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。