論文の概要: Positive Label Is All You Need for Multi-Label Classification
- arxiv url: http://arxiv.org/abs/2306.16016v2
- Date: Wed, 23 Aug 2023 05:39:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 17:47:40.788380
- Title: Positive Label Is All You Need for Multi-Label Classification
- Title(参考訳): 複数ラベルの分類に必要な正のラベル
- Authors: Zhixiang Yuan, Kaixin Zhang, Tao Huang
- Abstract要約: マルチラベル分類(MLC)は、各画像に様々な意味ラベルを注釈付けすることが困難であるため、トレーニングデータにおいて避けられないラベルノイズに悩まされる。
肯定的・未ラベルなマルチラベル分類(PU-MLC)と呼ばれる新しい手法を提案する。
本手法は,正のラベルとラベルなしデータのみをモデルとし,損失関数に適応的再バランス係数と適応的温度係数を導入する。
- 参考スコア(独自算出の注目度): 3.7701543173069716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-label classification (MLC) suffers from the inevitable label noise in
training data due to the difficulty in annotating various semantic labels in
each image. To mitigate the influence of noisy labels, existing methods mainly
devote to identifying and correcting the label mistakes via a trained MLC
model. However, these methods still involve annoying noisy labels in training,
which can result in imprecise recognition of noisy labels and weaken the
performance. In this paper, considering that the negative labels are
substantially more than positive labels, and most noisy labels are from the
negative labels, we directly discard all the negative labels in the dataset,
and propose a new method dubbed positive and unlabeled multi-label
classification (PU-MLC). By extending positive-unlabeled learning into MLC
task, our method trains model with only positive labels and unlabeled data, and
introduces adaptive re-balance factor and adaptive temperature coefficient in
the loss function to alleviate the catastrophic imbalance in label distribution
and over-smoothing of probabilities in training. Furthermore, to capture both
local and global dependencies in the image, we also introduce a local-global
convolution module, which supplements global information into existing
convolution layers with no retraining of backbone required. Our PU-MLC is
simple and effective, and it is applicable to both MLC and MLC with partial
labels (MLC-PL) tasks. Extensive experiments on MS-COCO and PASCAL VOC datasets
demonstrate that our PU-MLC achieves significantly improvements on both MLC and
MLC-PL settings with even fewer annotations. Code will be released.
- Abstract(参考訳): マルチラベル分類(MLC)は、各画像に様々な意味ラベルを注釈付けすることが困難であるため、トレーニングデータにおいて避けられないラベルノイズに悩まされる。
ノイズラベルの影響を軽減するため、既存の手法は主に訓練されたmlcモデルによるラベルミスの識別と修正に費やされている。
しかし、これらの方法はいまだに騒がしいラベルをトレーニングに含むため、ノイズラベルを不正確に認識し、パフォーマンスを弱める可能性がある。
本稿では, 負ラベルが正ラベル以上であり, ほとんどのノイズラベルが負ラベルから来ていることを考慮し, データセット中のすべての負ラベルを直接破棄し, 正および未ラベルのマルチラベル分類(PU-MLC)と呼ばれる新しい手法を提案する。
正のラベル付き学習をmlcタスクに拡張することにより,正のラベルとラベル付きデータのみをモデルに訓練し,損失関数に適応的な再バランス係数と適応温度係数を導入し,ラベル分布の破滅的不均衡と,トレーニングの確率の過大さを緩和する。
さらに、画像内の局所的およびグローバルな依存関係をキャプチャするために、バックボーンの再トレーニングを必要とせずに、グローバル情報を既存の畳み込み層に補完するローカル・グローバルな畳み込みモジュールも導入する。
PU-MLC は単純かつ効果的であり,MLC-PL タスクを伴う MLC と MLC の両方に適用可能である。
MS-COCOとPASCAL VOCデータセットの大規模な実験により、私たちのPU-MLCはより少ないアノテーションで MLC と MLC-PL の設定を大幅に改善することを示した。
コードはリリースされる。
関連論文リスト
- Deep Partial Multi-Label Learning with Graph Disambiguation [27.908565535292723]
grAph-disambIguatioN (PLAIN) を用いた新しいディープ部分多重ラベルモデルを提案する。
具体的には、ラベルの信頼性を回復するために、インスタンスレベルとラベルレベルの類似性を導入する。
各トレーニングエポックでは、ラベルがインスタンスとラベルグラフに伝播し、比較的正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-05-10T04:02:08Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Pushing One Pair of Labels Apart Each Time in Multi-Label Learning: From
Single Positive to Full Labels [29.11589378265006]
MLL(Multi-Label Learning)では、高価なコストと限られた知識のために、出現するすべてのオブジェクトを正確にアノテートすることが極めて困難である。
既存のマルチラベル学習手法は未知のラベルを負とみなし、偽の負をノイズラベルとして導入する。
SPMLL(Single Positive Multi-Label Learning)では,サンプル毎に1つの正のラベルを提供する必要がある。
論文 参考訳(メタデータ) (2023-02-28T16:08:12Z) - Complementary to Multiple Labels: A Correlation-Aware Correction
Approach [65.59584909436259]
理論上, マルチクラスCLLにおける遷移行列が, 複数ラベルの場合どのように歪むかを示す。
候補ラベルから遷移行列を推定する2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-02-25T04:48:48Z) - Learning from Noisy Labels with Decoupled Meta Label Purifier [33.87292143223425]
ディープニューラルネットワークをノイズラベルでトレーニングすることは、DNNが不正確なラベルを容易に記憶できるため、難しい。
本稿では,DMLPと呼ばれる新しい多段ラベル浄化器を提案する。
DMLPはラベル訂正プロセスをラベルなし表現学習と単純なメタラベル精製器に分離する。
論文 参考訳(メタデータ) (2023-02-14T03:39:30Z) - Category-Adaptive Label Discovery and Noise Rejection for Multi-label
Image Recognition with Partial Positive Labels [78.88007892742438]
部分正ラベル(MLR-PPL)を用いたマルチラベルモデルの訓練が注目されている。
これまでの研究では、未知のラベルを負とみなし、従来のMLRアルゴリズムを採用した。
我々は,MLR-PPLタスクを容易にするために,異なる画像間の意味的相関について検討する。
論文 参考訳(メタデータ) (2022-11-15T02:11:20Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。