論文の概要: Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction
- arxiv url: http://arxiv.org/abs/2308.00279v1
- Date: Tue, 1 Aug 2023 04:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 15:32:57.940717
- Title: Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction
- Title(参考訳): 雑音負サンプル自己補正によるロバスト正無ラベル学習
- Authors: Zhangchi Zhu, Lu Wang, Pu Zhao, Chao Du, Wei Zhang, Hang Dong, Bo
Qiao, Qingwei Lin, Saravan Rajmohan, Dongmei Zhang
- Abstract要約: 正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
- 参考スコア(独自算出の注目度): 48.929877651182885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from positive and unlabeled data is known as positive-unlabeled (PU)
learning in literature and has attracted much attention in recent years. One
common approach in PU learning is to sample a set of pseudo-negatives from the
unlabeled data using ad-hoc thresholds so that conventional supervised methods
can be applied with both positive and negative samples. Owing to the label
uncertainty among the unlabeled data, errors of misclassifying unlabeled
positive samples as negative samples inevitably appear and may even accumulate
during the training processes. Those errors often lead to performance
degradation and model instability. To mitigate the impact of label uncertainty
and improve the robustness of learning with positive and unlabeled data, we
propose a new robust PU learning method with a training strategy motivated by
the nature of human learning: easy cases should be learned first. Similar
intuition has been utilized in curriculum learning to only use easier cases in
the early stage of training before introducing more complex cases.
Specifically, we utilize a novel ``hardness'' measure to distinguish unlabeled
samples with a high chance of being negative from unlabeled samples with large
label noise. An iterative training strategy is then implemented to fine-tune
the selection of negative samples during the training process in an iterative
manner to include more ``easy'' samples in the early stage of training.
Extensive experimental validations over a wide range of learning tasks show
that this approach can effectively improve the accuracy and stability of
learning with positive and unlabeled data. Our code is available at
https://github.com/woriazzc/Robust-PU
- Abstract(参考訳): ポジティブでラベルのないデータからの学習は、文学におけるポジティブ・アンラベル(pu)学習として知られているが、近年は注目を集めている。
pu学習における一般的なアプローチは、ラベルのないデータから偽陰性のセットをアドホックしきい値を使ってサンプリングすることで、従来の教師あり手法を正と負の両方のサンプルに適用できる。
ラベルなしデータのラベルの不確実性のため、ラベルなし陽性サンプルを否定的なサンプルとして誤分類する誤りが必然的に現れ、トレーニングプロセス中に蓄積する可能性がある。
これらのエラーは、しばしばパフォーマンスの低下とモデルの不安定につながる。
ラベルの不確実性の影響を軽減し,正およびラベルのないデータによる学習の堅牢性を向上させるために,人間の学習の性質に動機づけられた学習戦略を取り入れた,堅牢なPU学習手法を提案する。
同様の直感は、カリキュラム学習において、より複雑なケースを導入する前に、訓練の初期段階で簡単なケースのみを使用するために利用されてきた。
具体的には,ラベルノイズが大きいラベルなしのサンプルと,ラベルなしのサンプルを高い確率で識別するために,新しい「ハードネス」尺度を用いる。
次に、反復的なトレーニング戦略により、トレーニングプロセス中の負のサンプルの選択を反復的に微調整し、トレーニングの初期段階により多くの `easy'' サンプルを含める。
幅広い学習課題に対する大規模な実験的検証は、この手法が正および未ラベルのデータによる学習の精度と安定性を効果的に改善できることを示している。
私たちのコードはhttps://github.com/woriazzc/Robust-PUで利用可能です。
関連論文リスト
- Importance of negative sampling in weak label learning [33.97406573051897]
弱ラベル学習(Weak-label learning)は、正と負のインスタンスを含むデータ“バグ”から学ぶことが必要な課題である。
本研究では,弱ラベル学習における負のインスタンスの有用性を計測し,それに応じて抽出する手法について検討する。
私たちの研究は、負のインスタンスがすべて等しく無関係ではないことを明らかにし、それらを賢明に選択することで、弱いラベル学習の恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-09-23T01:11:15Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Positive Unlabeled Contrastive Learning [14.975173394072053]
自己教師型事前学習パラダイムを古典的正の未ラベル(PU)設定に拡張する。
PU固有のクラスタリング手法を用いて,ラベルのないサンプルを擬似ラベル付けする手法を開発した。
提案手法は,いくつかの標準PUベンチマークデータセットに対して,最先端のPU手法を手作業で上回っている。
論文 参考訳(メタデータ) (2022-06-01T20:16:32Z) - Adaptive Positive-Unlabelled Learning via Markov Diffusion [0.0]
Positive-Unlabelled (PU) 学習は、正のインスタンスのセットのみをラベル付けする機械学習環境である。
このアルゴリズムの主な目的は、元来問題のない正のインスタンスを含む可能性のあるインスタンスの集合を特定することである。
論文 参考訳(メタデータ) (2021-08-13T10:25:47Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Improving Positive Unlabeled Learning: Practical AUL Estimation and New
Training Method for Extremely Imbalanced Data Sets [10.870831090350402]
我々は2つの側面から、最先端技術に関するポジティブ・アンラベル(PU)学習を改善する。
まず,未ラベルサンプルの事前知識を必要とせずに生のPUデータを利用する,非バイアスの実用的なAUL推定法を提案する。
次に,極めて不均衡なデータセットに対する新しいトレーニング手法であるProbTaggingを提案する。
論文 参考訳(メタデータ) (2020-04-21T08:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。