論文の概要: Learning from positive and unlabeled examples -Finite size sample bounds
- arxiv url: http://arxiv.org/abs/2507.07354v1
- Date: Thu, 10 Jul 2025 00:39:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.238889
- Title: Learning from positive and unlabeled examples -Finite size sample bounds
- Title(参考訳): 正およびラベルなし例から学ぶ -有限サイズサンプル境界-
- Authors: Farnam Mansouri, Shai Ben-David,
- Abstract要約: PU学習は教師付き分類学習の変種であり、学習者に明かされたラベルだけが正のラベル付きインスタンスである。
本稿では,PU学習の統計的複雑さを,より広い範囲で理論的に解析する。
- 参考スコア(独自算出の注目度): 5.015294654768579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: PU (Positive Unlabeled) learning is a variant of supervised classification learning in which the only labels revealed to the learner are of positively labeled instances. PU learning arises in many real-world applications. Most existing work relies on the simplifying assumptions that the positively labeled training data is drawn from the restriction of the data generating distribution to positively labeled instances and/or that the proportion of positively labeled points (a.k.a. the class prior) is known apriori to the learner. This paper provides a theoretical analysis of the statistical complexity of PU learning under a wider range of setups. Unlike most prior work, our study does not assume that the class prior is known to the learner. We prove upper and lower bounds on the required sample sizes (of both the positively labeled and the unlabeled samples).
- Abstract(参考訳): PU(Positive Unlabeled)学習は、教師付き分類学習の一種であり、学習者に公開されたラベルだけが正のラベル付きインスタンスである。
PU学習は多くの現実世界のアプリケーションで発生する。
既存のほとんどの研究は、正にラベル付けされたトレーニングデータが、正にラベル付けされたインスタンスに対するデータ生成分布の制限から引き出されるという単純な仮定と、正にラベル付けされたポイント(例えば、クラス前の)の割合が学習者にとってアプリオリであることに依拠している。
本稿では,PU学習の統計的複雑さを,より広い範囲で理論的に解析する。
多くの先行研究と異なり,本研究では,先行研究が学習者に知られていることを前提としていない。
必要なサンプルサイズ(正にラベル付けされたサンプルとラベル付けされていないサンプルの両方)について,上と下の境界を証明した。
関連論文リスト
- Understanding Contrastive Representation Learning from Positive Unlabeled (PU) Data [28.74519165747641]
本稿では,少数のラベル付き正のセットと大きなラベル付きプールのみを利用できる,正のラベル付き学習(PU)の課題について検討する。
比較対象を減少させる非バイアスで分散した正の非ラベル型コントラスト学習(puCL)を導入する。
本稿では, 未ラベルのサンプルをソフトな正の混合物として再重み付けする, 事前認識型拡張である Positive Unlabeled InfoNCE (puNCE) を提案する。
論文 参考訳(メタデータ) (2024-02-08T20:20:54Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Positive Unlabeled Contrastive Learning [14.975173394072053]
自己教師型事前学習パラダイムを古典的正の未ラベル(PU)設定に拡張する。
PU固有のクラスタリング手法を用いて,ラベルのないサンプルを擬似ラベル付けする手法を開発した。
提案手法は,いくつかの標準PUベンチマークデータセットに対して,最先端のPU手法を手作業で上回っている。
論文 参考訳(メタデータ) (2022-06-01T20:16:32Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Positive-Unlabeled Classification under Class-Prior Shift: A
Prior-invariant Approach Based on Density Ratio Estimation [85.75352990739154]
密度比推定に基づく新しいPU分類法を提案する。
提案手法の顕著な利点は、訓練段階においてクラスプライヤを必要としないことである。
論文 参考訳(メタデータ) (2021-07-11T13:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。