論文の概要: Positive Label Is All You Need for Multi-Label Classification
- arxiv url: http://arxiv.org/abs/2306.16016v1
- Date: Wed, 28 Jun 2023 08:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 15:06:19.528583
- Title: Positive Label Is All You Need for Multi-Label Classification
- Title(参考訳): 複数ラベルの分類に必要な正のラベル
- Authors: Zhixiang Yuan, Kaixin Zhang, Tao Huang
- Abstract要約: マルチラベル分類(MLC)は、各画像に様々な意味ラベルを注釈付けすることが困難であるため、トレーニングデータにおいて避けられないラベルノイズに悩まされる。
肯定的・未ラベルなマルチラベル分類(PU-MLC)と呼ばれる新しい手法を提案する。
本手法は,正のラベルとラベルなしデータのみをモデルとし,損失関数に適応的再バランス係数と適応的温度係数を導入する。
- 参考スコア(独自算出の注目度): 3.407474265138055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-label classification (MLC) suffers from the inevitable label noise in
training data due to the difficulty in annotating various semantic labels in
each image. To mitigate the influence of noisy labels, existing methods mainly
devote to identifying and correcting the label mistakes via a trained MLC
model. However, these methods still involve annoying noisy labels in training,
which can result in imprecise recognition of noisy labels and weaken the
performance. In this paper, considering that the negative labels are
substantially more than positive labels, and most noisy labels are from the
negative labels, we directly discard all the negative labels in the dataset,
and propose a new method dubbed positive and unlabeled multi-label
classification (PU-MLC). By extending positive-unlabeled learning into MLC
task, our method trains model with only positive labels and unlabeled data, and
introduces adaptive re-balance factor and adaptive temperature coefficient in
the loss function to alleviate the catastrophic imbalance in label distribution
and over-smoothing of probabilities in training. Our PU-MLC is simple and
effective, and it is applicable to both MLC and MLC with partial labels
(MLC-PL) tasks. Extensive experiments on MS-COCO and PASCAL VOC datasets
demonstrate that our PU-MLC achieves significantly improvements on both MLC and
MLC-PL settings with even fewer annotations. Code will be released.
- Abstract(参考訳): マルチラベル分類(MLC)は、各画像に様々な意味ラベルを注釈付けすることが困難であるため、トレーニングデータにおいて避けられないラベルノイズに悩まされる。
ノイズラベルの影響を軽減するため、既存の手法は主に訓練されたmlcモデルによるラベルミスの識別と修正に費やされている。
しかし、これらの方法はいまだに騒がしいラベルをトレーニングに含むため、ノイズラベルを不正確に認識し、パフォーマンスを弱める可能性がある。
本稿では, 負ラベルが正ラベル以上であり, ほとんどのノイズラベルが負ラベルから来ていることを考慮し, データセット中のすべての負ラベルを直接破棄し, 正および未ラベルのマルチラベル分類(PU-MLC)と呼ばれる新しい手法を提案する。
正のラベル付き学習をmlcタスクに拡張することにより,正のラベルとラベル付きデータのみをモデルに訓練し,損失関数に適応的な再バランス係数と適応温度係数を導入し,ラベル分布の破滅的不均衡と,トレーニングの確率の過大さを緩和する。
PU-MLC は単純かつ効果的であり,MLC-PL タスクを伴う MLC と MLC の両方に適用可能である。
MS-COCOとPASCAL VOCデータセットの大規模な実験により、私たちのPU-MLCはより少ないアノテーションで MLC と MLC-PL の設定を大幅に改善することを示した。
コードはリリースされる。
関連論文リスト
- Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Pushing One Pair of Labels Apart Each Time in Multi-Label Learning: From
Single Positive to Full Labels [29.11589378265006]
MLL(Multi-Label Learning)では、高価なコストと限られた知識のために、出現するすべてのオブジェクトを正確にアノテートすることが極めて困難である。
既存のマルチラベル学習手法は未知のラベルを負とみなし、偽の負をノイズラベルとして導入する。
SPMLL(Single Positive Multi-Label Learning)では,サンプル毎に1つの正のラベルを提供する必要がある。
論文 参考訳(メタデータ) (2023-02-28T16:08:12Z) - Complementary to Multiple Labels: A Correlation-Aware Correction
Approach [65.59584909436259]
理論上, マルチクラスCLLにおける遷移行列が, 複数ラベルの場合どのように歪むかを示す。
候補ラベルから遷移行列を推定する2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-02-25T04:48:48Z) - Label Structure Preserving Contrastive Embedding for Multi-Label
Learning with Missing Labels [30.79809627981242]
欠落ラベルを識別するためのラベル補正機構を導入し、欠落ラベル(CLML)を用いた多ラベル画像分類において、ユニークなコントラスト損失を定義する。
既存のマルチラベルCLの損失とは異なり、CLMLは潜在表現空間における低ランクなグローバルおよびローカルなラベル依存性も保持する。
提案した戦略は、3つの標準データセットでそれぞれ1.2%、1.6%、および1.3%のマージンでResnet101モデルの分類性能を改善することが示されている。
論文 参考訳(メタデータ) (2022-09-03T02:44:07Z) - On the Effects of Different Types of Label Noise in Multi-Label Remote
Sensing Image Classification [1.6758573326215689]
リモートセンシング(RS)画像のマルチラベル分類(MLC)のための高精度な手法の開発は、RSにおいて最も重要な研究トピックの1つである。
複数のランドカバークラスラベル (multi-labels) でアノテートされた多数の信頼できるトレーニングイメージを必要とするディープニューラルネットワークの使用は、RSで人気がある。
本稿では,3つの異なる雑音頑健なCV SLC法について検討し,RSのマルチラベル雑音シナリオに対して頑健であるように適応する。
論文 参考訳(メタデータ) (2022-07-28T09:38:30Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Unsupervised Person Re-identification via Multi-label Classification [55.65870468861157]
本稿では,教師なしのReIDを多ラベル分類タスクとして定式化し,段階的に真のラベルを求める。
提案手法は,まず,各人物画像に単一クラスラベルを割り当てることから始まり,ラベル予測のために更新されたReIDモデルを活用することで,多ラベル分類へと進化する。
マルチラベル分類におけるReIDモデルのトレーニング効率を高めるために,メモリベースマルチラベル分類損失(MMCL)を提案する。
論文 参考訳(メタデータ) (2020-04-20T12:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。