論文の概要: Calibratable Disambiguation Loss for Multi-Instance Partial-Label Learning
- arxiv url: http://arxiv.org/abs/2512.17788v1
- Date: Fri, 19 Dec 2025 16:58:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.501998
- Title: Calibratable Disambiguation Loss for Multi-Instance Partial-Label Learning
- Title(参考訳): 多インスタンス部分ラベル学習における可逆的曖昧化損失
- Authors: Wei Tang, Yin-Fang Yang, Weijia Zhang, Min-Ling Zhang,
- Abstract要約: MIPL(Multi-instance partial-label Learning)は、インスタンス空間とラベル空間の両方において、不正確な監督の課題に対処する弱い教師付きフレームワークである。
既存のMIPLアプローチは、しばしばキャリブレーションが悪く、信頼性を損なう。
分類精度と校正性能を同時に向上するプラグアンドプレイ校正型曖昧さ損失(CDL)を提案する。
- 参考スコア(独自算出の注目度): 53.9713678229744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-instance partial-label learning (MIPL) is a weakly supervised framework that extends the principles of multi-instance learning (MIL) and partial-label learning (PLL) to address the challenges of inexact supervision in both instance and label spaces. However, existing MIPL approaches often suffer from poor calibration, undermining classifier reliability. In this work, we propose a plug-and-play calibratable disambiguation loss (CDL) that simultaneously improves classification accuracy and calibration performance. The loss has two instantiations: the first one calibrates predictions based on probabilities from the candidate label set, while the second one integrates probabilities from both candidate and non-candidate label sets. The proposed CDL can be seamlessly incorporated into existing MIPL and PLL frameworks. We provide a theoretical analysis that establishes the lower bound and regularization properties of CDL, demonstrating its superiority over conventional disambiguation losses. Experimental results on benchmark and real-world datasets confirm that our CDL significantly enhances both classification and calibration performance.
- Abstract(参考訳): MIPL(Multi-instance partial-label Learning)は、MIL(Multi-instance Learning)とPLL(Partial-label Learning)の原則を拡張し、インスタンス空間とラベル空間の両方において不正確な監督の課題に対処する弱い教師付きフレームワークである。
しかし、既存のMIPLアプローチはしばしばキャリブレーションが悪く、分類器の信頼性を損なう。
本研究では,分類精度と校正性能を同時に向上するプラグアンドプレイ校正型曖昧さ損失(CDL)を提案する。
1つは候補ラベルセットからの確率に基づいて予測を校正し、もう1つは候補ラベルセットと非候補ラベルセットの両方からの確率を統合する。
提案したCDLは、既存のMIPLおよびPLLフレームワークにシームレスに組み込むことができる。
我々は,従来の曖昧さの損失に対して,CDLの低境界と正則性を確立する理論解析を行った。
ベンチマークと実世界のデータセットによる実験結果から,我々のCDLは分類性能と校正性能の両方を著しく向上させることがわかった。
関連論文リスト
- Unsupervised Conformal Inference: Bootstrapping and Alignment to Control LLM Uncertainty [49.19257648205146]
生成のための教師なし共形推論フレームワークを提案する。
我々のゲートは、分断されたUPPよりも厳密で安定した閾値を提供する。
その結果は、ラベルのない、API互換の、テスト時間フィルタリングのゲートになる。
論文 参考訳(メタデータ) (2025-09-26T23:40:47Z) - Multi-Instance Partial-Label Learning with Margin Adjustment [52.05053599664198]
マルチインスタンス部分ラベル学習(MIPL)は、各トレーニングサンプルを候補ラベルセットに関連付けられたマルチインスタンスバッグとして表現する新興学習フレームワークである。
既存のMIPLアルゴリズムは、しばしば注意点と予測確率のマージンを見落とし、最適以下の一般化性能をもたらす。
注意点と予測確率のマージンを調整したMIPLMAというアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-22T02:47:17Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - Complementary Labels Learning with Augmented Classes [22.460256396941528]
補完ラベル学習 (Complementary Labels Learning, CLL) は、プライベート質問分類やオンライン学習など、現実世界の多くのタスクに現れる。
CLLAC(Complementary Labels Learning with Augmented Classs)と呼ばれる新しい問題設定を提案する。
ラベルのないデータを用いて,CLLACの分類リスクの偏りのない推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T13:55:27Z) - Controller-Guided Partial Label Consistency Regularization with
Unlabeled Data [49.24911720809604]
本稿では,ラベルレベルと表現レベルの両方において,コントローラ誘導整合正則化を提案する。
信頼度閾値を動的に調整し、整合正則化に参加する各クラスのサンプル数が大まかに等しいようにし、クラス不均衡の問題を緩和する。
論文 参考訳(メタデータ) (2022-10-20T12:15:13Z) - Class-Imbalanced Complementary-Label Learning via Weighted Loss [8.934943507699131]
補完ラベル学習(Complementary-label Learning, CLL)は、弱い教師付き分類において広く用いられている。
クラス不均衡のトレーニングサンプルに直面すると、現実世界のデータセットでは大きな課題に直面します。
多クラス分類のためのクラス不均衡補完ラベルからの学習を可能にする新しい問題設定を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:02:42Z) - Label-Imbalanced and Group-Sensitive Classification under
Overparameterization [32.923780772605596]
ラベルの不均衡でグループに敏感な分類は、関連するメトリクスを最適化するための標準トレーニングアルゴリズムを適切に修正することを目指す。
標準実証的リスク最小化に対するロジット調整による損失修正は,一般的には効果がない可能性がある。
本研究では, 2つの共通する不均衡(ラベル/グループ)を統一的に処理し, 敏感群の二値分類に自然に適用できることを示した。
論文 参考訳(メタデータ) (2021-03-02T08:09:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。