論文の概要: Risk bounds for PU learning under Selected At Random assumption
- arxiv url: http://arxiv.org/abs/2201.06277v1
- Date: Mon, 17 Jan 2022 08:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 18:40:19.670209
- Title: Risk bounds for PU learning under Selected At Random assumption
- Title(参考訳): ランダムに選択したPU学習におけるリスク境界
- Authors: Olivier Coudray (CELESTE), Christine Keribin (CELESTE), Pascal Massart
(CELESTE), Patrick Pamphile (CELESTE)
- Abstract要約: 正の非ラベル付き学習(PU learning)は半教師付きバイナリ分類の特殊な例として知られており、少数の正の例がラベル付けされているのみである。
我々は、上限がほぼ最適であることを示すミニマックスリスクの低い境界を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Positive-unlabeled learning (PU learning) is known as a special case of
semi-supervised binary classification where only a fraction of positive
examples are labeled. The challenge is then to find the correct classifier
despite this lack of information. Recently, new methodologies have been
introduced to address the case where the probability of being labeled may
depend on the covariates. In this paper, we are interested in establishing risk
bounds for PU learning under this general assumption. In addition, we quantify
the impact of label noise on PU learning compared to standard classification
setting. Finally, we provide a lower bound on minimax risk proving that the
upper bound is almost optimal.
- Abstract(参考訳): 正の非ラベル付き学習(PU learning)は半教師付きバイナリ分類の特殊な例として知られており、少数の正の例がラベル付けされているのみである。
この情報不足にもかかわらず、正しい分類器を見つけることが課題である。
近年,ラベル付けされる確率が共変量に依存する場合に対処する新たな手法が導入された。
本稿では,この前提の下でPU学習のリスクバウンダリを確立することに関心がある。
さらに,ラベルノイズがPU学習に与える影響を,標準分類設定と比較して定量化する。
最後に、上界がほぼ最適であることを証明したミニマックスリスクに対する下界を提供する。
関連論文リスト
- An Unbiased Risk Estimator for Partial Label Learning with Augmented Classes [46.663081214928226]
PLLACを理論的に保証した非バイアスリスク推定器を提案する。
PLLACの推定誤差の理論的解析を行う。
ベンチマーク、UCI、実世界のデータセットの実験では、提案手法の有効性が示されている。
論文 参考訳(メタデータ) (2024-09-29T07:36:16Z) - Verifying the Selected Completely at Random Assumption in Positive-Unlabeled Learning [0.7646713951724013]
観測されたデータがSCARの仮定に合致するかどうかを判定するために,比較的単純で計算的に高速なテストを提案する。
本テストは,SCAR ケースに適合する人工ラベルを生成することに基づいて,SCAR の null 仮説の下での試験統計量の分布を模倣することができる。
論文 参考訳(メタデータ) (2024-03-29T20:36:58Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Can Class-Priors Help Single-Positive Multi-Label Learning? [40.312419865957224]
シングル陽性マルチラベル学習(SPMLL)は、典型的には弱教師付きマルチラベル学習問題である。
クラスプライア推定器を導入し、理論上はクラスプライアに収束することが保証されているクラスプライアを推定することができる。
推定されたクラスプライヤに基づいて、分類のための非バイアスリスク推定器が導出され、対応するリスク最小化器が、完全に教師されたデータ上で、最適リスク最小化器にほぼ収束することを保証できる。
論文 参考訳(メタデータ) (2023-09-25T05:45:57Z) - Positive Unlabeled Learning Selected Not At Random (PULSNAR): class proportion estimation when the SCAR assumption does not hold [2.76815720120527]
PU学習(Positive and Unlabeled learning)は、半教師付きバイナリ分類の一種である。
PU学習は、確認された負が利用できない、あるいは入手が難しい設定において幅広い応用がある。
2つのPU学習アルゴリズムを提案し、$alpha$を推定し、PUインスタンスの確率を計算し、分類基準を改善する。
論文 参考訳(メタデータ) (2023-03-14T23:16:22Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - Positive Unlabeled Contrastive Learning [14.975173394072053]
自己教師型事前学習パラダイムを古典的正の未ラベル(PU)設定に拡張する。
PU固有のクラスタリング手法を用いて,ラベルのないサンプルを擬似ラベル付けする手法を開発した。
提案手法は,いくつかの標準PUベンチマークデータセットに対して,最先端のPU手法を手作業で上回っている。
論文 参考訳(メタデータ) (2022-06-01T20:16:32Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - RATT: Leveraging Unlabeled Data to Guarantee Generalization [96.08979093738024]
ラベルのないデータを利用して一般化境界を生成する手法を紹介します。
境界が0-1経験的リスク最小化に有効であることを証明します。
この作業は、見えないラベル付きデータが利用できない場合でも、ディープネットの一般化を証明するためのオプションを実践者に提供します。
論文 参考訳(メタデータ) (2021-05-01T17:05:29Z) - Cautious Active Clustering [79.23797234241471]
ユークリッド空間上の未知の確率測度からサンプリングされた点の分類の問題を考える。
我々のアプローチは、未知の確率測度を、各クラスに対する条件付き確率の凸結合として考えることである。
論文 参考訳(メタデータ) (2020-08-03T23:47:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。