論文の概要: Positive Label Is All You Need for Multi-Label Classification
- arxiv url: http://arxiv.org/abs/2306.16016v3
- Date: Tue, 16 Apr 2024 07:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 02:30:42.198623
- Title: Positive Label Is All You Need for Multi-Label Classification
- Title(参考訳): 複数ラベルの分類に必要な正のラベル
- Authors: Zhixiang Yuan, Kaixin Zhang, Tao Huang,
- Abstract要約: マルチラベル分類(MLC)は、トレーニングデータにおけるラベルノイズによる課題に直面する。
本稿では,MPCにおけるラベルノイズに,PU-MLC法を導入して対処する。
PU-MLCは正のラベル付き学習を採用し、正のラベルとラベルなしのデータだけでモデルを訓練する。
- 参考スコア(独自算出の注目度): 3.354528906571718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-label classification (MLC) faces challenges from label noise in training data due to annotating diverse semantic labels for each image. Current methods mainly target identifying and correcting label mistakes using trained MLC models, but still struggle with persistent noisy labels during training, resulting in imprecise recognition and reduced performance. Our paper addresses label noise in MLC by introducing a positive and unlabeled multi-label classification (PU-MLC) method. To counteract noisy labels, we directly discard negative labels, focusing on the abundance of negative labels and the origin of most noisy labels. PU-MLC employs positive-unlabeled learning, training the model with only positive labels and unlabeled data. The method incorporates adaptive re-balance factors and temperature coefficients in the loss function to address label distribution imbalance and prevent over-smoothing of probabilities during training. Additionally, we introduce a local-global convolution module to capture both local and global dependencies in the image without requiring backbone retraining. PU-MLC proves effective on MLC and MLC with partial labels (MLC-PL) tasks, demonstrating significant improvements on MS-COCO and PASCAL VOC datasets with fewer annotations. Code is available at: https://github.com/TAKELAMAG/PU-MLC.
- Abstract(参考訳): マルチラベル分類(MLC)は、各画像に対して多様なセマンティックラベルを注釈付けすることにより、トレーニングデータにおけるラベルノイズによる課題に直面する。
現在の方法は、主に訓練されたMLCモデルを用いてラベルの誤りを特定し修正することを目的としているが、トレーニング中に持続的なノイズのあるラベルに悩まされ、不正確な認識と性能の低下をもたらす。
本稿では,MPCにおけるラベルノイズに,PU-MLC法を導入して対処する。
雑音ラベルに対処するために、負ラベルの多さとほとんどの雑音ラベルの起源に焦点をあてて、負ラベルを直接破棄する。
PU-MLCは正のラベル付き学習を採用し、正のラベルとラベルなしのデータだけでモデルを訓練する。
この方法は、損失関数の適応的再バランス係数と温度係数を組み込んでラベル分布の不均衡に対処し、トレーニング中の確率の過度な平滑化を防止する。
さらに,画像内の局所的およびグローバルな依存関係をバックボーン再トレーニングを必要とせずにキャプチャするローカル・グローバル・コンボリューション・モジュールを導入する。
PU-MLCは部分ラベル(MLC-PL)タスクでLCとLCに有効であることを証明し、より少ないアノテーションでMS-COCOとPASCAL VOCデータセットを大幅に改善した。
コードは、https://github.com/TAKELAMAG/PU-MLCで入手できる。
関連論文リスト
- Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Pushing One Pair of Labels Apart Each Time in Multi-Label Learning: From
Single Positive to Full Labels [29.11589378265006]
MLL(Multi-Label Learning)では、高価なコストと限られた知識のために、出現するすべてのオブジェクトを正確にアノテートすることが極めて困難である。
既存のマルチラベル学習手法は未知のラベルを負とみなし、偽の負をノイズラベルとして導入する。
SPMLL(Single Positive Multi-Label Learning)では,サンプル毎に1つの正のラベルを提供する必要がある。
論文 参考訳(メタデータ) (2023-02-28T16:08:12Z) - Complementary to Multiple Labels: A Correlation-Aware Correction
Approach [65.59584909436259]
理論上, マルチクラスCLLにおける遷移行列が, 複数ラベルの場合どのように歪むかを示す。
候補ラベルから遷移行列を推定する2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-02-25T04:48:48Z) - Label Structure Preserving Contrastive Embedding for Multi-Label
Learning with Missing Labels [30.79809627981242]
欠落ラベルを識別するためのラベル補正機構を導入し、欠落ラベル(CLML)を用いた多ラベル画像分類において、ユニークなコントラスト損失を定義する。
既存のマルチラベルCLの損失とは異なり、CLMLは潜在表現空間における低ランクなグローバルおよびローカルなラベル依存性も保持する。
提案した戦略は、3つの標準データセットでそれぞれ1.2%、1.6%、および1.3%のマージンでResnet101モデルの分類性能を改善することが示されている。
論文 参考訳(メタデータ) (2022-09-03T02:44:07Z) - On the Effects of Different Types of Label Noise in Multi-Label Remote
Sensing Image Classification [1.6758573326215689]
リモートセンシング(RS)画像のマルチラベル分類(MLC)のための高精度な手法の開発は、RSにおいて最も重要な研究トピックの1つである。
複数のランドカバークラスラベル (multi-labels) でアノテートされた多数の信頼できるトレーニングイメージを必要とするディープニューラルネットワークの使用は、RSで人気がある。
本稿では,3つの異なる雑音頑健なCV SLC法について検討し,RSのマルチラベル雑音シナリオに対して頑健であるように適応する。
論文 参考訳(メタデータ) (2022-07-28T09:38:30Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Unsupervised Person Re-identification via Multi-label Classification [55.65870468861157]
本稿では,教師なしのReIDを多ラベル分類タスクとして定式化し,段階的に真のラベルを求める。
提案手法は,まず,各人物画像に単一クラスラベルを割り当てることから始まり,ラベル予測のために更新されたReIDモデルを活用することで,多ラベル分類へと進化する。
マルチラベル分類におけるReIDモデルのトレーニング効率を高めるために,メモリベースマルチラベル分類損失(MMCL)を提案する。
論文 参考訳(メタデータ) (2020-04-20T12:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。