論文の概要: A Unified and Stable Risk Minimization Framework for Weakly Supervised Learning with Theoretical Guarantees
- arxiv url: http://arxiv.org/abs/2511.22823v1
- Date: Fri, 28 Nov 2025 00:57:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.737281
- Title: A Unified and Stable Risk Minimization Framework for Weakly Supervised Learning with Theoretical Guarantees
- Title(参考訳): 理論的保証付き弱監視学習のための統一的で安定なリスク最小化フレームワーク
- Authors: Miao Zhang, Junpeng Li, Changchun Hua, Yana Yang,
- Abstract要約: 完全かつ正確なラベルが取得にコストがかかる、あるいは不可能な場合には、完全に教師付き学習の代替として弱教師付き学習が実用化されている。
弱教師付きデータの構造に根ざした安定な代理リスクを定式化することにより、そのようなポストホック調整を回避できる、原則化された統一されたフレームワークを提案する。
- 参考スコア(独自算出の注目度): 33.15955234458642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly supervised learning has emerged as a practical alternative to fully supervised learning when complete and accurate labels are costly or infeasible to acquire. However, many existing methods are tailored to specific supervision patterns -- such as positive-unlabeled (PU), unlabeled-unlabeled (UU), complementary-label (CLL), partial-label (PLL), or similarity-unlabeled annotations -- and rely on post-hoc corrections to mitigate instability induced by indirect supervision. We propose a principled, unified framework that bypasses such post-hoc adjustments by directly formulating a stable surrogate risk grounded in the structure of weakly supervised data. The formulation naturally subsumes diverse settings -- including PU, UU, CLL, PLL, multi-class unlabeled, and tuple-based learning -- under a single optimization objective. We further establish a non-asymptotic generalization bound via Rademacher complexity that clarifies how supervision structure, model capacity, and sample size jointly govern performance. Beyond this, we analyze the effect of class-prior misspecification on the bound, deriving explicit terms that quantify its impact, and we study identifiability, giving sufficient conditions -- most notably via supervision stratification across groups -- under which the target risk is recoverable. Extensive experiments show consistent gains across class priors, dataset scales, and class counts -- without heuristic stabilization -- while exhibiting robustness to overfitting.
- Abstract(参考訳): 完全かつ正確なラベルが取得にコストがかかる、あるいは不可能な場合には、完全に教師付き学習の代替として弱教師付き学習が実用化されている。
しかし、既存の多くのメソッドは特定の監視パターン – 正の未ラベル(PU)、未ラベル(UU)、補完的なラベル(CLL)、部分的なラベル(PLL)、類似性の未ラベル(PLL)など – に合わせて調整されており、間接的な監督によって引き起こされる不安定を緩和するためのポストホック修正に依存している。
弱教師付きデータの構造に根ざした安定なサロゲートリスクを直接定式化することにより、そのようなポストホック調整を回避できる、原則化された統一されたフレームワークを提案する。
この定式化は、PU、UU、CLL、PLL、マルチクラス未ラベル、タプルベースの学習など、さまざまな設定を、単一の最適化目標の下で自然に仮定する。
さらに、Rademacher複雑性を介し、非漸近的一般化を確立し、監視構造、モデル容量、サンプルサイズが共同でパフォーマンスを制御しているかを明らかにする。
さらに、我々は、その影響を定量化するための明示的な用語を導出し、その境界に対するクラス・プリンシフィケーションの効果を分析し、その影響を識別可能性について研究し、特に、対象のリスクが回復可能なグループ間の監督層化を通じて、十分な条件を与える。
大規模な実験では、クラス事前、データセットスケール、クラスカウント -- ヒューリスティックな安定化なしに -- で一貫した利得を示し、過度な適合性を示している。
関連論文リスト
- Learning from Similarity-Confidence and Confidence-Difference [0.07646713951724009]
複数の視点から補完的な弱監督信号を利用する新しい弱監視学習(WSL)フレームワークを提案する。
具体的には,2種類の弱いラベルを統合する手法であるSconfConfDiff Classificationを紹介する。
両推定器が推定誤差境界に対して最適収束率を達成することを証明した。
論文 参考訳(メタデータ) (2025-08-07T07:42:59Z) - An Unbiased Risk Estimator for Partial Label Learning with Augmented Classes [46.663081214928226]
PLLACを理論的に保証した非バイアスリスク推定器を提案する。
PLLACの推定誤差の理論的解析を行う。
ベンチマーク、UCI、実世界のデータセットの実験では、提案手法の有効性が示されている。
論文 参考訳(メタデータ) (2024-09-29T07:36:16Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Complementary Labels Learning with Augmented Classes [22.460256396941528]
補完ラベル学習 (Complementary Labels Learning, CLL) は、プライベート質問分類やオンライン学習など、現実世界の多くのタスクに現れる。
CLLAC(Complementary Labels Learning with Augmented Classs)と呼ばれる新しい問題設定を提案する。
ラベルのないデータを用いて,CLLACの分類リスクの偏りのない推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T13:55:27Z) - Controller-Guided Partial Label Consistency Regularization with
Unlabeled Data [49.24911720809604]
本稿では,ラベルレベルと表現レベルの両方において,コントローラ誘導整合正則化を提案する。
信頼度閾値を動的に調整し、整合正則化に参加する各クラスのサンプル数が大まかに等しいようにし、クラス不均衡の問題を緩和する。
論文 参考訳(メタデータ) (2022-10-20T12:15:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。