論文の概要: Optimal Learning from Label Proportions with General Loss Functions
- arxiv url: http://arxiv.org/abs/2509.15145v1
- Date: Thu, 18 Sep 2025 16:53:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.345605
- Title: Optimal Learning from Label Proportions with General Loss Functions
- Title(参考訳): 一般損失関数を持つラベル分布からの最適学習
- Authors: Lorne Applebaum, Travis Dick, Claudio Gentile, Haim Kaplan, Tomer Koren,
- Abstract要約: 本稿では,ラベル情報から学習する新奇で多用途な低分散デバイアス手法を提案する。
提案手法は,実用的な損失関数の幅広いスペクトルをシームレスに収容する,顕著な柔軟性を示す。
提案手法の有効性を様々なベンチマークデータセットで実証的に検証する。
- 参考スコア(独自算出の注目度): 33.827617632719864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivated by problems in online advertising, we address the task of Learning from Label Proportions (LLP). In this partially-supervised setting, training data consists of groups of examples, termed bags, for which we only observe the average label value. The main goal, however, remains the design of a predictor for the labels of individual examples. We introduce a novel and versatile low-variance de-biasing methodology to learn from aggregate label information, significantly advancing the state of the art in LLP. Our approach exhibits remarkable flexibility, seamlessly accommodating a broad spectrum of practically relevant loss functions across both binary and multi-class classification settings. By carefully combining our estimators with standard techniques, we substantially improve sample complexity guarantees for a large class of losses of practical relevance. We also empirically validate the efficacy of our proposed approach across a diverse array of benchmark datasets, demonstrating compelling empirical advantages over standard baselines.
- Abstract(参考訳): オンライン広告の問題に触発され,LLP (Learning from Label Proportions) の課題に対処する。
この部分教師付き設定では、トレーニングデータは、平均ラベル値のみを観測するバッグと呼ばれるサンプルのグループから構成される。
しかし、主な目標は、個々のサンプルのラベルの予測器の設計にとどまっている。
ラベル情報から学習し,LLPの最先端性を著しく向上させる,新規で多用途な低分散デバイアス手法を提案する。
提案手法は,二項分類と多項分類の両方において,実用的な損失関数の広い範囲をシームレスに収容する,顕著な柔軟性を示す。
提案手法と標準手法を慎重に組み合わせることで,実用関連性の大規模な損失に対するサンプル複雑性保証を大幅に改善する。
また、さまざまなベンチマークデータセットにまたがって提案手法の有効性を実証的に検証し、標準ベースラインよりも優れた実証的優位性を示す。
関連論文リスト
- Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Easy Learning from Label Proportions [17.71834385754893]
Easyllpは、アグリゲーションラベルに基づいた、柔軟で簡単に実装可能なデバイアス方式である。
我々の手法は、任意のモデルが個々のレベルで予想される損失を正確に見積もることができる。
論文 参考訳(メタデータ) (2023-02-06T20:41:38Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Controller-Guided Partial Label Consistency Regularization with
Unlabeled Data [49.24911720809604]
本稿では,ラベルレベルと表現レベルの両方において,コントローラ誘導整合正則化を提案する。
信頼度閾値を動的に調整し、整合正則化に参加する各クラスのサンプル数が大まかに等しいようにし、クラス不均衡の問題を緩和する。
論文 参考訳(メタデータ) (2022-10-20T12:15:13Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。