論文の概要: Cost-Sensitive Unbiased Risk Estimation for Multi-Class Positive-Unlabeled Learning
- arxiv url: http://arxiv.org/abs/2510.25226v1
- Date: Wed, 29 Oct 2025 07:01:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.195469
- Title: Cost-Sensitive Unbiased Risk Estimation for Multi-Class Positive-Unlabeled Learning
- Title(参考訳): 多クラス正負ラベル学習におけるコスト感性不偏性リスク推定
- Authors: Miao Zhang, Junpeng Li, Changchun Hua, Yana Yang,
- Abstract要約: Positive--Unlabeled (PU) 学習では、正の値と未ラベルのデータしか利用できない設定が考慮されている。
強調損失重み付けに基づくコスト依存型多クラスPU法を提案する。
textbfeight公開データセットの実験では、様々なクラスの事前値とクラスの数にまたがって、精度と安定性の両方において、強いベースラインよりも一貫した利得を示している。
- 参考スコア(独自算出の注目度): 33.15955234458642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Positive--Unlabeled (PU) learning considers settings in which only positive and unlabeled data are available, while negatives are missing or left unlabeled. This situation is common in real applications where annotating reliable negatives is difficult or costly. Despite substantial progress in PU learning, the multi-class case (MPU) remains challenging: many existing approaches do not ensure \emph{unbiased risk estimation}, which limits performance and stability. We propose a cost-sensitive multi-class PU method based on \emph{adaptive loss weighting}. Within the empirical risk minimization framework, we assign distinct, data-dependent weights to the positive and \emph{inferred-negative} (from the unlabeled mixture) loss components so that the resulting empirical objective is an unbiased estimator of the target risk. We formalize the MPU data-generating process and establish a generalization error bound for the proposed estimator. Extensive experiments on \textbf{eight} public datasets, spanning varying class priors and numbers of classes, show consistent gains over strong baselines in both accuracy and stability.
- Abstract(参考訳): Positive--Unlabeled (PU) 学習では、正の値と未ラベルのデータしか利用できない設定が考慮されている。
この状況は、信頼できる負の注釈付けが困難またはコストがかかる実アプリケーションでは一般的である。
PU学習の大幅な進歩にもかかわらず、Multi-class case (MPU) は依然として困難であり、多くの既存のアプローチでは、性能と安定性を制限した \emph{unbiased risk estimation} を保証していない。
本稿では,emph{adaptive loss weighting}に基づくコスト依存型多クラスPU法を提案する。
実験的リスク最小化フレームワーク内では、実験目的が対象リスクの偏りのない推定器となるように、正および(ラベル付き混合物から)擬似および擬似負の損失成分にデータ依存重みを割り当てる。
MPUデータ生成プロセスの形式化と,提案した推定器の一般化誤差の定式化を行う。
さまざまなクラスの先行値とクラスの数にまたがる、textbf{eight}公開データセットに関する大規模な実験は、精度と安定性の両方において、強いベースラインよりも一貫した利得を示している。
関連論文リスト
- Semi-Supervised Regression with Heteroscedastic Pseudo-Labels [50.54050677867914]
両レベル最適化の観点から,疑似ラベルの影響を動的に調整する不確実性認識型擬似ラベル化フレームワークを提案する。
我々は、様々なベンチマークSSRデータセットにまたがって、我々のアプローチを検証するための理論的洞察と広範な実験を提供する。
論文 参考訳(メタデータ) (2025-10-17T03:06:23Z) - Learning from M-Tuple Dominant Positive and Unlabeled Data [9.568395664931504]
本稿では,実世界のアプリケーションシナリオに適合する汎用学習フレームワークであるemphMDPUを提案する。
経験的リスク最小化 (ERM) 法に基づいて, リスク一貫性を満足する未バイアスリスク推定器を導出する。
トレーニング中に必然的に過適合する問題を緩和するため、リスク補正手法を導入し、修正されたリスク推定器の開発に繋がる。
論文 参考訳(メタデータ) (2025-05-25T13:20:11Z) - Constraint Multi-class Positive and Unlabeled Learning for Distantly Supervised Named Entity Recognition [4.532252099910803]
我々は,textbfConstraint textbfMulti-class textbfPositive and textbfUn Learning (CMPU) と呼ばれる新しい手法を提案する。
制約非負のリスク推定器は, 前回のPU学習法よりも, 過度に適合する傾向が強いことが示唆された。
論文 参考訳(メタデータ) (2025-04-07T11:51:41Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Learning from Positive and Unlabeled Data with Augmented Classes [17.97372291914351]
Augmented Classes (PUAC) を用いたPU学習のための非バイアスリスク推定器を提案する。
提案手法は,最適解への収束を理論的に保証する推定誤差を導出する。
論文 参考訳(メタデータ) (2022-07-27T03:40:50Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - Uncertainty-aware Pseudo-label Selection for Positive-Unlabeled Learning [10.014356492742074]
本稿では,正の未ラベル学習環境における不均衡データセットとモデル校正の問題に取り組むことを提案する。
マイノリティクラスからのシグナルを増強することにより、擬似ラベル付けはラベル付きデータセットをラベル付きデータセットから新しいサンプルで拡張する。
PUUPLは一連の実験において、高度に不均衡な設定で大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2022-01-31T12:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。