論文の概要: More Reliable Pseudo-labels, Better Performance: A Generalized Approach to Single Positive Multi-label Learning
- arxiv url: http://arxiv.org/abs/2508.20381v1
- Date: Thu, 28 Aug 2025 03:07:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.927567
- Title: More Reliable Pseudo-labels, Better Performance: A Generalized Approach to Single Positive Multi-label Learning
- Title(参考訳): より信頼性の高い擬似ラベルとより良いパフォーマンス: 単一正のマルチラベル学習への一般化されたアプローチ
- Authors: Luong Tran, Thieu Vo, Anh Nguyen, Sang Dinh, Van Nguyen,
- Abstract要約: マルチラベル学習は、各画像に複数のカテゴリを割り当てる必要がある、難しいコンピュータビジョンタスクである。
ノイズを軽減しつつ,多様な擬似ラベルから効果的に学習する新しい損失関数を提案する。
我々のフレームワークは多言語分類を著しく進歩させ、最先端の結果を得る。
- 参考スコア(独自算出の注目度): 12.20473357505283
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-label learning is a challenging computer vision task that requires assigning multiple categories to each image. However, fully annotating large-scale datasets is often impractical due to high costs and effort, motivating the study of learning from partially annotated data. In the extreme case of Single Positive Multi-Label Learning (SPML), each image is provided with only one positive label, while all other labels remain unannotated. Traditional SPML methods that treat missing labels as unknown or negative tend to yield inaccuracies and false negatives, and integrating various pseudo-labeling strategies can introduce additional noise. To address these challenges, we propose the Generalized Pseudo-Label Robust Loss (GPR Loss), a novel loss function that effectively learns from diverse pseudo-labels while mitigating noise. Complementing this, we introduce a simple yet effective Dynamic Augmented Multi-focus Pseudo-labeling (DAMP) technique. Together, these contributions form the Adaptive and Efficient Vision-Language Pseudo-Labeling (AEVLP) framework. Extensive experiments on four benchmark datasets demonstrate that our framework significantly advances multi-label classification, achieving state-of-the-art results.
- Abstract(参考訳): マルチラベル学習は、各画像に複数のカテゴリを割り当てる必要がある、難しいコンピュータビジョンタスクである。
しかし、大規模なデータセットを完全に注釈付けすることは、高コストと労力のためにしばしば非現実的であり、部分的に注釈付けされたデータから学習を動機付ける。
極端な場合、SPML(Single Positive Multi-Label Learning)では、各画像には1つの正のラベルが与えられ、他のすべてのラベルには注釈が付かない。
行方不明なラベルを未知または負として扱う従来のSPML手法は、不正確さと偽陰性をもたらす傾向があり、様々な擬似ラベル戦略を統合することで、追加のノイズが発生する。
これらの課題に対処するために、ノイズを緩和しながら多様な擬似ラベルから効果的に学習する新しい損失関数、Generalized Pseudo-Label Robust Loss (GPR Loss)を提案する。
そこで我々は,DAMP(Dynamic Augmented Multi-focus Pseudo-labeling)技術を導入する。
これらのコントリビューションは、Adaptive and Efficient Vision-Language Pseudo-Labeling(AEVLP)フレームワークを構成する。
4つのベンチマークデータセットに対する大規模な実験により、我々のフレームワークはマルチラベル分類を著しく進歩させ、最先端の結果が得られた。
関連論文リスト
- Multi-Label Contrastive Learning : A Comprehensive Study [48.81069245141415]
マルチラベルの分類は、研究と産業の両方において重要な領域として現れてきた。
対照的な学習をマルチラベル分類に適用することは、ユニークな課題である。
多様な環境における多ラベル分類のためのコントラスト学習損失の詳細な研究を行う。
論文 参考訳(メタデータ) (2024-11-27T20:20:06Z) - Deep Partial Multi-Label Learning with Graph Disambiguation [27.908565535292723]
grAph-disambIguatioN (PLAIN) を用いた新しいディープ部分多重ラベルモデルを提案する。
具体的には、ラベルの信頼性を回復するために、インスタンスレベルとラベルレベルの類似性を導入する。
各トレーニングエポックでは、ラベルがインスタンスとラベルグラフに伝播し、比較的正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-05-10T04:02:08Z) - Reliable Representation Learning for Incomplete Multi-View Missing Multi-Label Classification [78.15629210659516]
本稿ではRANKと呼ばれる不完全なマルチビュー欠落型マルチラベル分類ネットワークを提案する。
既存の手法に固有のビューレベルの重みを分解し、各サンプルのビューに品質スコアを動的に割り当てる品質対応サブネットワークを提案する。
私たちのモデルは、完全なマルチビューマルチラベルデータを扱うだけでなく、欠落したインスタンスやラベルを持つデータセットでも処理できます。
論文 参考訳(メタデータ) (2023-03-30T03:09:25Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Incomplete Multi-View Weak-Label Learning with Noisy Features and
Imbalanced Labels [4.800187500079582]
マルチビュー学習の限界を克服する新しい手法を提案する。
不完全ビューと弱いラベルを適応重み付き低次元部分空間に埋め込む。
ノイズの多いビューを検出するために埋め込みの視点的重要性を適応的に学習し、焦点損失によるラベルの不均衡問題を緩和する。
論文 参考訳(メタデータ) (2022-01-04T10:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。