論文の概要: Least-Ambiguous Multi-Label Classifier
- arxiv url: http://arxiv.org/abs/2509.10689v1
- Date: Fri, 12 Sep 2025 20:45:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.730541
- Title: Least-Ambiguous Multi-Label Classifier
- Title(参考訳): 最小あいまいなマルチラベル分類器
- Authors: Misgina Tsighe Hagos, Claes Lundström,
- Abstract要約: 単陽性多言語学習(SPMLL)に対するモデルに依存しないアプローチを提案する。
本手法は,ラベル分布の仮定に頼らずに,シングルラベルトレーニングとマルチラベル評価の監督ギャップを埋める。
- 参考スコア(独自算出の注目度): 2.0482700732041397
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-label learning often requires identifying all relevant labels for training instances, but collecting full label annotations is costly and labor-intensive. In many datasets, only a single positive label is annotated per training instance, despite the presence of multiple relevant labels. This setting, known as single-positive multi-label learning (SPMLL), presents a significant challenge due to its extreme form of partial supervision. We propose a model-agnostic approach to SPMLL that draws on conformal prediction to produce calibrated set-valued outputs, enabling reliable multi-label predictions at test time. Our method bridges the supervision gap between single-label training and multi-label evaluation without relying on label distribution assumptions. We evaluate our approach on 12 benchmark datasets, demonstrating consistent improvements over existing baselines and practical applicability.
- Abstract(参考訳): マルチラベル学習では、トレーニングインスタンスに関連するすべてのラベルを識別する必要があることが多いが、完全なラベルアノテーションの収集には費用がかかり、労力がかかる。
多くのデータセットでは、複数の関連するラベルが存在するにも関わらず、トレーニングインスタンス毎に1つの正のラベルがアノテートされるのみである。
シングル陽性多ラベル学習(SPMLL)として知られるこの設定は、その極端な部分的監督形態のために重要な課題を提示する。
本研究では,SPMLLに対するモデルに依存しない手法を提案する。
本手法は,ラベル分布の仮定に頼らずに,シングルラベルトレーニングとマルチラベル評価の監督ギャップを埋める。
12のベンチマークデータセットに対する我々のアプローチを評価し、既存のベースラインと実用的な適用性に対して一貫した改善を実証した。
関連論文リスト
- Label Distribution Learning with Biased Annotations by Learning Multi-Label Representation [120.97262070068224]
マルチラベル学習(MLL)は,実世界のデータ表現能力に注目されている。
ラベル分布学習(LDL)は正確なラベル分布の収集において課題に直面している。
論文 参考訳(メタデータ) (2025-02-03T09:04:03Z) - Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Understanding Label Bias in Single Positive Multi-Label Learning [20.09309971112425]
画像ごとの正のラベルを1つだけ使い、効果的なマルチラベルを訓練することができる。
SPMLの標準ベンチマークは、従来のマルチラベル分類データセットに由来する。
本研究では,SPMLにおけるラベルバイアス研究のプロトコルを導入し,新たな実験結果を提供する。
論文 参考訳(メタデータ) (2023-05-24T21:41:08Z) - Deep Partial Multi-Label Learning with Graph Disambiguation [27.908565535292723]
grAph-disambIguatioN (PLAIN) を用いた新しいディープ部分多重ラベルモデルを提案する。
具体的には、ラベルの信頼性を回復するために、インスタンスレベルとラベルレベルの類似性を導入する。
各トレーニングエポックでは、ラベルがインスタンスとラベルグラフに伝播し、比較的正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-05-10T04:02:08Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。