論文の概要: Pushing One Pair of Labels Apart Each Time in Multi-Label Learning: From
Single Positive to Full Labels
- arxiv url: http://arxiv.org/abs/2302.14695v1
- Date: Tue, 28 Feb 2023 16:08:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 15:39:22.025619
- Title: Pushing One Pair of Labels Apart Each Time in Multi-Label Learning: From
Single Positive to Full Labels
- Title(参考訳): 複数ラベル学習における1組のラベルの分割:単一正のラベルから完全のラベルへ
- Authors: Xiang Li, Xinrui Wang, Songcan Chen
- Abstract要約: MLL(Multi-Label Learning)では、高価なコストと限られた知識のために、出現するすべてのオブジェクトを正確にアノテートすることが極めて困難である。
既存のマルチラベル学習手法は未知のラベルを負とみなし、偽の負をノイズラベルとして導入する。
SPMLL(Single Positive Multi-Label Learning)では,サンプル毎に1つの正のラベルを提供する必要がある。
- 参考スコア(独自算出の注目度): 29.11589378265006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Multi-Label Learning (MLL), it is extremely challenging to accurately
annotate every appearing object due to expensive costs and limited knowledge.
When facing such a challenge, a more practical and cheaper alternative should
be Single Positive Multi-Label Learning (SPMLL), where only one positive label
needs to be provided per sample. Existing SPMLL methods usually assume unknown
labels as negatives, which inevitably introduces false negatives as noisy
labels. More seriously, Binary Cross Entropy (BCE) loss is often used for
training, which is notoriously not robust to noisy labels. To mitigate this
issue, we customize an objective function for SPMLL by pushing only one pair of
labels apart each time to prevent the domination of negative labels, which is
the main culprit of fitting noisy labels in SPMLL. To further combat such noisy
labels, we explore the high-rankness of label matrix, which can also push apart
different labels. By directly extending from SPMLL to MLL with full labels, a
unified loss applicable to both settings is derived. Experiments on real
datasets demonstrate that the proposed loss not only performs more robustly to
noisy labels for SPMLL but also works well for full labels. Besides, we
empirically discover that high-rankness can mitigate the dramatic performance
drop in SPMLL. Most surprisingly, even without any regularization or fine-tuned
label correction, only adopting our loss defeats state-of-the-art SPMLL methods
on CUB, a dataset that severely lacks labels.
- Abstract(参考訳): MLL(Multi-Label Learning)では、高価なコストと限られた知識のために、出現するすべてのオブジェクトを正確にアノテートすることが極めて困難である。
このような課題に直面した場合、より実用的で安価な選択肢は単一の正のマルチラベル学習(spmll: single positive multi-label learning)でなければならない。
既存のspmll法は通常未知のラベルを負として仮定するが、これは必然的にノイズラベルとして偽の陰性をもたらす。
より真面目な話として、bce(binary cross entropy)の損失はトレーニングによく使われ、ノイズラベルには堅牢ではないことで悪名高い。
この問題を軽減するため,SPMLL にノイズラベルを適合させる主要な原因である負ラベルが支配されるのを防ぐために,ラベルを1つずつ分割することで,SPMLL の目的関数をカスタマイズする。
このようなノイズのあるラベルにさらに対処するために,ラベル行列の高次性について検討する。
完全なラベルでSPMLLからMLLへ直接拡張することで、両方の設定に適用可能な統一的な損失が導出される。
実データセットでの実験では、提案する損失はspmllのノイズラベルよりも頑健なだけでなく、フルラベルでもうまく動作することが示されている。
さらに,SPMLLの劇的な性能低下を緩和できることを示す。
もっとも驚くべきことに、正規化や微調整されたラベル修正がなくても、私たちの損失はCUBの最先端のSPMLLメソッドを破るだけです。
関連論文リスト
- Positive Label Is All You Need for Multi-Label Classification [3.354528906571718]
マルチラベル分類(MLC)は、トレーニングデータにおけるラベルノイズによる課題に直面する。
本稿では,MPCにおけるラベルノイズに,PU-MLC法を導入して対処する。
PU-MLCは正のラベル付き学習を採用し、正のラベルとラベルなしのデータだけでモデルを訓練する。
論文 参考訳(メタデータ) (2023-06-28T08:44:00Z) - Understanding Label Bias in Single Positive Multi-Label Learning [20.09309971112425]
画像ごとの正のラベルを1つだけ使い、効果的なマルチラベルを訓練することができる。
SPMLの標準ベンチマークは、従来のマルチラベル分類データセットに由来する。
本研究では,SPMLにおけるラベルバイアス研究のプロトコルを導入し,新たな実験結果を提供する。
論文 参考訳(メタデータ) (2023-05-24T21:41:08Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Complementary to Multiple Labels: A Correlation-Aware Correction
Approach [65.59584909436259]
理論上, マルチクラスCLLにおける遷移行列が, 複数ラベルの場合どのように歪むかを示す。
候補ラベルから遷移行列を推定する2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-02-25T04:48:48Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Multi-Label Gold Asymmetric Loss Correction with Single-Label Regulators [6.129273021888717]
本稿では,単一ラベルレギュレータ(GALC-SLR)を用いたGold Asymmetric Loss Correctionを提案する。
GALC-SLRは、単一ラベルサンプルを用いてノイズ混乱行列を推定し、推定された混乱行列を介して非対称な損失補正を構築し、雑音ラベルへの過度な適合を避ける。
実験結果から,本手法は,全ての汚損レベルにおいて,最先端の非対称損失マルチラベル分類器よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-08-04T12:57:29Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。