論文の概要: Active learning from positive and unlabeled examples
- arxiv url: http://arxiv.org/abs/2602.02081v1
- Date: Mon, 02 Feb 2026 13:28:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.16585
- Title: Active learning from positive and unlabeled examples
- Title(参考訳): 正およびラベルなし例からのアクティブラーニング
- Authors: Farnam Mansouri, Sandra Zilles, Shai Ben-David,
- Abstract要約: 正およびラベルなしデータ(PU学習)からの学習は、二項分類の弱い教師付き変種である。
本研究では,学習者が未ラベルのプールからインスタンスを適応的にクエリできる,アクティブなPU学習環境について検討する。
我々は,アクティブPU学習のラベル複雑性に関する最初の理論的解析を行った。
- 参考スコア(独自算出の注目度): 6.023276947115864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from positive and unlabeled data (PU learning) is a weakly supervised variant of binary classification in which the learner receives labels only for (some) positively labeled instances, while all other examples remain unlabeled. Motivated by applications such as advertising and anomaly detection, we study an active PU learning setting where the learner can adaptively query instances from an unlabeled pool, but a queried label is revealed only when the instance is positive and an independent coin flip succeeds; otherwise the learner receives no information. In this paper, we provide the first theoretical analysis of the label complexity of active PU learning.
- Abstract(参考訳): 正およびラベルなしデータ(PU Learning)からの学習は二項分類の弱い教師付き変種であり、学習者は(一部)正のラベル付きインスタンスに対してのみラベルを受け取るが、他のすべての例はラベル付きのままである。
広告や異常検出などのアプリケーションによって動機付けられた,学習者が未ラベルのプールからインスタンスを適応的にクエリできる,アクティブなPU学習環境について検討する。
本稿では,アクティブPU学習のラベル複雑性に関する最初の理論的解析を行う。
関連論文リスト
- Learning from positive and unlabeled examples -Finite size sample bounds [5.015294654768579]
PU学習は教師付き分類学習の変種であり、学習者に明かされたラベルだけが正のラベル付きインスタンスである。
本稿では,PU学習の統計的複雑さを,より広い範囲で理論的に解析する。
論文 参考訳(メタデータ) (2025-07-10T00:39:40Z) - Understanding Contrastive Representation Learning from Positive Unlabeled (PU) Data [28.74519165747641]
本稿では,少数のラベル付き正のセットと大きなラベル付きプールのみを利用できる,正のラベル付き学習(PU)の課題について検討する。
比較対象を減少させる非バイアスで分散した正の非ラベル型コントラスト学習(puCL)を導入する。
本稿では, 未ラベルのサンプルをソフトな正の混合物として再重み付けする, 事前認識型拡張である Positive Unlabeled InfoNCE (puNCE) を提案する。
論文 参考訳(メタデータ) (2024-02-08T20:20:54Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Positive Unlabeled Contrastive Learning [14.975173394072053]
自己教師型事前学習パラダイムを古典的正の未ラベル(PU)設定に拡張する。
PU固有のクラスタリング手法を用いて,ラベルのないサンプルを擬似ラベル付けする手法を開発した。
提案手法は,いくつかの標準PUベンチマークデータセットに対して,最先端のPU手法を手作業で上回っている。
論文 参考訳(メタデータ) (2022-06-01T20:16:32Z) - Adaptive Positive-Unlabelled Learning via Markov Diffusion [0.0]
Positive-Unlabelled (PU) 学習は、正のインスタンスのセットのみをラベル付けする機械学習環境である。
このアルゴリズムの主な目的は、元来問題のない正のインスタンスを含む可能性のあるインスタンスの集合を特定することである。
論文 参考訳(メタデータ) (2021-08-13T10:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。