論文の概要: Positive-Unlabeled Learning with Uncertainty-aware Pseudo-label
Selection
- arxiv url: http://arxiv.org/abs/2201.13192v1
- Date: Mon, 31 Jan 2022 12:55:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 15:07:40.234547
- Title: Positive-Unlabeled Learning with Uncertainty-aware Pseudo-label
Selection
- Title(参考訳): 不確実性を考慮した擬似ラベル選択による正ラベル学習
- Authors: Emilio Dorigatti, Jann Goschenhofer, Benjamin Schubert, Mina Rezaei,
Bernd Bischl
- Abstract要約: Pseudo-labeling Solution for positive-unlabeled (PU) learningは、コスト感受性学習と比較して高いパフォーマンスをもたらす可能性がある。
PUのリスクと擬似ラベルデータを組み合わせたリスク推定器の理論解析を行う。
次に,PUUPLを提案する。
- 参考スコア(独自算出の注目度): 1.43494686131174
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pseudo-labeling solutions for positive-unlabeled (PU) learning have the
potential to result in higher performance compared to cost-sensitive learning
but are vulnerable to incorrectly estimated pseudo-labels. In this paper, we
provide a theoretical analysis of a risk estimator that combines risk on PU and
pseudo-labeled data. Furthermore, we show analytically as well as
experimentally that such an estimator results in lower excess risk compared to
using PU data alone, provided that enough samples are pseudo-labeled with
acceptable error rates. We then propose PUUPL, a novel training procedure for
PU learning that leverages the epistemic uncertainty of an ensemble of deep
neural networks to minimize errors in pseudo-label selection. We conclude with
extensive experiments showing the effectiveness of our proposed algorithm over
different datasets, modalities, and learning tasks. These show that PUUPL
enables a reduction of up to 20% in test error rates even when prior and
negative samples are not provided for validation, setting a new
state-of-the-art for PU learning.
- Abstract(参考訳): Pseudo-labeling Solution for positive-unlabeled (PU) learningは、コスト感受性学習と比較して高い性能をもたらす可能性があるが、誤って推定された擬似ラベルに弱い。
本稿では,puに対するリスクと擬似ラベルデータを組み合わせたリスク推定器の理論的解析を行う。
さらに, 十分なサンプルが疑似ラベル付けされ, 許容誤差率を持つ場合, 分析により, 推定器がpuデータ単独と比較して過大リスクを低減できることを示した。
次に,深層ニューラルネットワークのアンサンブルの認識の不確実性を利用して,疑似ラベル選択における誤りを最小限に抑えるPUUPLを提案する。
提案アルゴリズムが様々なデータセット,モダリティ,学習タスクに対して有効であることを示す広範な実験で締めくくった。
これらの結果は、puuplが検証のために事前および負のサンプルを提供していない場合でも、テストエラー率を最大20%削減できることを示している。
関連論文リスト
- An Unbiased Risk Estimator for Partial Label Learning with Augmented Classes [46.663081214928226]
PLLACを理論的に保証した非バイアスリスク推定器を提案する。
PLLACの推定誤差の理論的解析を行う。
ベンチマーク、UCI、実世界のデータセットの実験では、提案手法の有効性が示されている。
論文 参考訳(メタデータ) (2024-09-29T07:36:16Z) - A Channel-ensemble Approach: Unbiased and Low-variance Pseudo-labels is Critical for Semi-supervised Classification [61.473485511491795]
半教師付き学習(SSL)はコンピュータビジョンにおける実践的な課題である。
Pseudo-label (PL) メソッド、例えば FixMatch や FreeMatch は SSL で State of The Art (SOTA) のパフォーマンスを取得する。
本稿では,複数の下位PLを理論的に保証された非偏りと低分散のPLに集約する,軽量なチャネルベースアンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:49:37Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - CLAF: Contrastive Learning with Augmented Features for Imbalanced
Semi-Supervised Learning [40.5117833362268]
半教師付き学習とコントラスト学習は、ポピュラーなアプリケーションでより良いパフォーマンスを達成するために徐々に組み合わせられてきた。
1つの一般的な方法は、擬似ラベルを未ラベルのサンプルに割り当て、擬似ラベルのサンプルから正と負のサンプルを選択して、対照的な学習を適用することである。
比較学習における少数クラスサンプルの不足を軽減するために,CLAF(Contrastive Learning with Augmented Features)を提案する。
論文 参考訳(メタデータ) (2023-12-15T08:27:52Z) - Beyond Myopia: Learning from Positive and Unlabeled Data through
Holistic Predictive Trends [26.79150786180822]
我々は、PULで興味深いが、長い間見過ごされてきた観察を公表する。
ポジティブクラスとネガティブクラスの予測傾向は、明らかに異なるパターンを示す。
本稿では,TPPにインスパイアされた新しいトレンド検出尺度を提案し,変化予測における不偏性を証明する。
論文 参考訳(メタデータ) (2023-10-06T08:06:15Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。