論文の概要: Distribution-Balanced Loss for Multi-Label Classification in Long-Tailed
Datasets
- arxiv url: http://arxiv.org/abs/2007.09654v4
- Date: Sat, 4 Dec 2021 02:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 23:57:21.068189
- Title: Distribution-Balanced Loss for Multi-Label Classification in Long-Tailed
Datasets
- Title(参考訳): ロングテールデータセットにおけるマルチラベル分類における分布バランス損失
- Authors: Tong Wu, Qingqiu Huang, Ziwei Liu, Yu Wang, Dahua Lin
- Abstract要約: 本稿では,長距離クラス分布を示す多ラベル認識問題に対して,分散ベース損失と呼ばれる新たな損失関数を提案する。
Distribution-Balanced Lossは、標準的なバイナリのクロスエントロピー損失に対する2つの重要な修正を通じて、これらの問題に取り組む。
パスカルVOCとCOCOの両方の実験により、この新しい損失関数で訓練されたモデルは、大幅な性能向上を達成できた。
- 参考スコア(独自算出の注目度): 98.74153364118898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new loss function called Distribution-Balanced Loss for the
multi-label recognition problems that exhibit long-tailed class distributions.
Compared to conventional single-label classification problem, multi-label
recognition problems are often more challenging due to two significant issues,
namely the co-occurrence of labels and the dominance of negative labels (when
treated as multiple binary classification problems). The Distribution-Balanced
Loss tackles these issues through two key modifications to the standard binary
cross-entropy loss: 1) a new way to re-balance the weights that takes into
account the impact caused by label co-occurrence, and 2) a negative tolerant
regularization to mitigate the over-suppression of negative labels. Experiments
on both Pascal VOC and COCO show that the models trained with this new loss
function achieve significant performance gains over existing methods. Code and
models are available at: https://github.com/wutong16/DistributionBalancedLoss .
- Abstract(参考訳): 本稿では,ロングテールクラス分布を示すマルチラベル認識問題に対して,分散バランス損失と呼ばれる新たな損失関数を提案する。
従来のシングルラベル分類問題と比較して、ラベルの共起と負のラベルの優位性(複数のバイナリ分類問題として扱われる)という2つの重大な問題により、マルチラベル認識問題はより困難であることが多い。
Distribution-Balanced Lossは、標準的なバイナリクロスエントロピー損失に対する2つの重要な修正を通じて、これらの問題に取り組む。
1)ラベル共起による影響を考慮に入れた新たなウェイトバランス方法
2) 負ラベルの過剰抑制を緩和するための負の寛容規則化。
Pascal VOCとCOCOの両方の実験により、この新しい損失関数で訓練されたモデルは、既存の手法よりも大幅に性能が向上することが示された。
コードとモデルは以下の通りである。
関連論文リスト
- Rebalancing Multi-Label Class-Incremental Learning [17.921329790170265]
ロスレベルとラベルレベル(RebLL)の両方に対するリバランスフレームワークを提案する。
AKDは、分類損失における負ラベル学習を強調することにより、損失レベルでの再均衡を図る。
ORはラベルのリバランスのために設計されており、行方不明のクラスをオンラインに解放することで、元のクラス分布をメモリ内で復元する。
論文 参考訳(メタデータ) (2024-08-22T07:04:22Z) - Multi-Label Learning with Stronger Consistency Guarantees [30.389055604165222]
本稿では,複数ラベル学習におけるサロゲート損失とアルゴリズムについて詳細に検討し,その差分を$H$-consistency boundsで表す。
本稿では,ラベルに依存しない$H$一貫性境界の利点とラベル相関を考慮に入れた新しい代理損失,多ラベルロジスティック損失を導入する。
我々は、このサロゲート損失の族が、一般的なマルチラベル損失よりも、$H$一貫性境界、すなわちベイズ一貫性から恩恵を受けていることを証明した。
論文 参考訳(メタデータ) (2024-07-18T17:51:02Z) - Confidence Self-Calibration for Multi-Label Class-Incremental Learning [21.104984143597882]
MLCIL(Multi-Label Class-Incremental Learning)におけるラベルの課題は、トレーニング中に新しいクラスのみをラベル付けする場合に発生する。
この問題は、誤って高い信頼度を持つマルチラベル予測による偽陽性エラーの増大につながる。
MLCILのマルチラベル信頼度校正を改良するための信頼性自己校正(CSC)手法を提案する。
論文 参考訳(メタデータ) (2024-03-19T09:14:52Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - PercentMatch: Percentile-based Dynamic Thresholding for Multi-Label
Semi-Supervised Classification [64.39761523935613]
トレーニング中の各クラスに対する正と負の擬似ラベルのスコア閾値を動的に変更するためのパーセンタイルベースのしきい値調整手法を提案する。
近年のSSL方式と比較して, Pascal VOC2007 と MS-COCO のデータセットの性能は高い。
論文 参考訳(メタデータ) (2022-08-30T01:27:48Z) - Unbiased Loss Functions for Multilabel Classification with Missing
Labels [2.1549398927094874]
欠落ラベルは、極端なマルチラベル分類(XMC)タスクにおいてユビキタスな現象である。
本稿では,異なるマルチラベルリダクションに対する特異な非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-09-23T10:39:02Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - DropLoss for Long-Tail Instance Segmentation [56.162929199998075]
珍しいカテゴリーと頻繁なカテゴリーのアンバランスを補う新しい適応損失であるDropLossを開発しています。
LVISデータセットでは,レア,一般的,頻繁なカテゴリにまたがる最先端のmAPを示す。
論文 参考訳(メタデータ) (2021-04-13T17:59:22Z) - Long-tail learning via logit adjustment [67.47668112425225]
現実世界の分類問題は通常、不均衡または長い尾のラベルの分布を示す。
これは、そのようなラベルを一般化する上での課題であり、また、支配的なラベルに偏った「学習」をもたらさせる。
これらの課題に対処するために、標準的なソフトマックスクロスエントロピートレーニングの2つの簡単な修正を提案する。
論文 参考訳(メタデータ) (2020-07-14T19:27:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。