論文の概要: Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels
- arxiv url: http://arxiv.org/abs/2203.16219v1
- Date: Wed, 30 Mar 2022 11:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 15:01:56.930307
- Title: Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels
- Title(参考訳): シングル陽性ラベルを用いたマルチラベル学習における未知の認識
- Authors: Donghao Zhou, Pengfei Chen, Qiong Wang, Guangyong Chen, Pheng-Ann Heng
- Abstract要約: 伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
- 参考スコア(独自算出の注目度): 65.5889334964149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the difficulty of collecting exhaustive multi-label annotations,
multi-label training data often contains partial labels. We consider an extreme
of this problem, called single positive multi-label learning (SPML), where each
multi-label training image has only one positive label. Traditionally, all
unannotated labels are assumed as negative labels in SPML, which would
introduce false negative labels and make model training be dominated by assumed
negative labels. In this work, we choose to treat all unannotated labels from a
different perspective, \textit{i.e.} acknowledging they are unknown. Hence, we
propose entropy-maximization (EM) loss to maximize the entropy of predicted
probabilities for all unannotated labels. Considering the positive-negative
label imbalance of unannotated labels, we propose asymmetric pseudo-labeling
(APL) with asymmetric-tolerance strategies and a self-paced procedure to
provide more precise supervision. Experiments show that our method
significantly improves performance and achieves state-of-the-art results on all
four benchmarks.
- Abstract(参考訳): 徹底的な複数ラベルアノテーションの収集が難しいため、多ラベルトレーニングデータは部分ラベルを含むことが多い。
単一正の多ラベル学習(SPML)と呼ばれる,各多ラベル学習画像が1つの正のラベルしか持たない,この問題の極端な部分について考察する。
伝統的に、すべての無注釈ラベルは、偽陰性ラベルを導入し、モデルトレーニングを仮定陰性ラベルに支配するSPMLの負ラベルとして想定される。
この研究では、異なる視点から全ての無記名ラベルを扱い、それらが未知であることを認める \textit{i.e.} を選択する。
そこで本稿では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
実験により,本手法は性能を著しく向上し,4つのベンチマークで最先端の結果が得られた。
関連論文リスト
- Towards Imbalanced Large Scale Multi-label Classification with Partially
Annotated Labels [8.977819892091]
マルチラベル分類は、複数のクラスにインスタンスを関連付けることができる日常生活において、広く発生する問題である。
本研究では,ラベルの不均衡の問題に対処し,部分ラベルを用いたニューラルネットワークのトレーニング方法について検討する。
論文 参考訳(メタデータ) (2023-07-31T21:50:48Z) - Understanding Label Bias in Single Positive Multi-Label Learning [20.09309971112425]
画像ごとの正のラベルを1つだけ使い、効果的なマルチラベルを訓練することができる。
SPMLの標準ベンチマークは、従来のマルチラベル分類データセットに由来する。
本研究では,SPMLにおけるラベルバイアス研究のプロトコルを導入し,新たな実験結果を提供する。
論文 参考訳(メタデータ) (2023-05-24T21:41:08Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Pushing One Pair of Labels Apart Each Time in Multi-Label Learning: From
Single Positive to Full Labels [29.11589378265006]
MLL(Multi-Label Learning)では、高価なコストと限られた知識のために、出現するすべてのオブジェクトを正確にアノテートすることが極めて困難である。
既存のマルチラベル学習手法は未知のラベルを負とみなし、偽の負をノイズラベルとして導入する。
SPMLL(Single Positive Multi-Label Learning)では,サンプル毎に1つの正のラベルを提供する必要がある。
論文 参考訳(メタデータ) (2023-02-28T16:08:12Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。