論文の概要: MixPUL: Consistency-based Augmentation for Positive and Unlabeled
Learning
- arxiv url: http://arxiv.org/abs/2004.09388v1
- Date: Mon, 20 Apr 2020 15:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 17:55:02.102046
- Title: MixPUL: Consistency-based Augmentation for Positive and Unlabeled
Learning
- Title(参考訳): MixPUL: 肯定的および未ラベル学習のための一貫性に基づく拡張
- Authors: Tong Wei, Feng Shi, Hai Wang, Wei-Wei Tu. Yu-Feng Li
- Abstract要約: 本稿では, 整合性正規化に基づく簡易かつ効果的なデータ拡張手法である coinedalgo を提案する。
アルゴインコーポレートは、拡張データを生成するために、教師付きおよび教師なしの一貫性トレーニングを行う。
我々は,CIFAR-10データセットの分類誤差を16.49から13.09まで,それぞれ異なる正のデータ量で平均的に改善したことを示す。
- 参考スコア(独自算出の注目度): 8.7382177147041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from positive and unlabeled data (PU learning) is prevalent in
practical applications where only a couple of examples are positively labeled.
Previous PU learning studies typically rely on existing samples such that the
data distribution is not extensively explored. In this work, we propose a
simple yet effective data augmentation method, coined~\algo, based on
\emph{consistency regularization} which provides a new perspective of using PU
data. In particular, the proposed~\algo~incorporates supervised and
unsupervised consistency training to generate augmented data. To facilitate
supervised consistency, reliable negative examples are mined from unlabeled
data due to the absence of negative samples. Unsupervised consistency is
further encouraged between unlabeled datapoints. In addition,~\algo~reduces
margin loss between positive and unlabeled pairs, which explicitly optimizes
AUC and yields faster convergence. Finally, we conduct a series of studies to
demonstrate the effectiveness of consistency regularization. We examined three
kinds of reliable negative mining methods. We show that~\algo~achieves an
averaged improvement of classification error from 16.49 to 13.09 on the
CIFAR-10 dataset across different positive data amount.
- Abstract(参考訳): 実証データとラベルなしデータ(PUラーニング)からの学習は、いくつかの例を肯定的にラベル付けした実践的アプリケーションで一般的である。
従来のPU学習研究は、データ分布が広範囲に調査されないような既存のサンプルに依存していた。
本稿では, PUデータを用いた新しい視点を提供する, \emph{consistency regularization} に基づく, 単純で効果的なデータ拡張手法を提案する。
特に、提案された--\algo-incorporates supervised and unsupervised consistency trainingは拡張データを生成する。
教師付き一貫性を容易にするために、ラベルのないデータから信頼できる負のサンプルを採掘する。
教師なしの一貫性はラベルなしのデータポイント間でさらに推奨される。
さらに、~\algo~は正とラベルなしのペア間のマージン損失を還元し、AUCを明示的に最適化し、より早く収束する。
最後に、一貫性正則化の有効性を示す一連の研究を行う。
我々は3種類の信頼な負の採鉱方法を検討した。
我々は,cifar-10データセットにおける分類誤差の平均値が16.49から13.09に向上したことを示す。
関連論文リスト
- Safe Semi-Supervised Contrastive Learning Using In-Distribution Data as Positive Examples [3.4546761246181696]
本稿では,大量のラベルのないデータを完全に活用するための,自己教師付きコントラスト学習手法を提案する。
その結果,自己指導型コントラスト学習は分類精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-08-03T22:33:13Z) - Beyond Myopia: Learning from Positive and Unlabeled Data through
Holistic Predictive Trends [26.79150786180822]
我々は、PULで興味深いが、長い間見過ごされてきた観察を公表する。
ポジティブクラスとネガティブクラスの予測傾向は、明らかに異なるパターンを示す。
本稿では,TPPにインスパイアされた新しいトレンド検出尺度を提案し,変化予測における不偏性を証明する。
論文 参考訳(メタデータ) (2023-10-06T08:06:15Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Incorporating Semi-Supervised and Positive-Unlabeled Learning for
Boosting Full Reference Image Quality Assessment [73.61888777504377]
フル参照(FR)画像品質評価(IQA)は、その知覚的差異をプリズム品質基準で測定することにより、歪み画像の視覚的品質を評価する。
ラベルなしデータは、画像劣化または復元プロセスから容易に収集することができ、ラベルなしのトレーニングデータを利用してFR-IQA性能を高めることを奨励する。
本稿では, 半教師付き, 正の未ラベル学習(PU)を用いて, ラベルなしデータを活用し, オフレーヤの悪影響を軽減することを提案する。
論文 参考訳(メタデータ) (2022-04-19T09:10:06Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - Improving Positive Unlabeled Learning: Practical AUL Estimation and New
Training Method for Extremely Imbalanced Data Sets [10.870831090350402]
我々は2つの側面から、最先端技術に関するポジティブ・アンラベル(PU)学習を改善する。
まず,未ラベルサンプルの事前知識を必要とせずに生のPUデータを利用する,非バイアスの実用的なAUL推定法を提案する。
次に,極めて不均衡なデータセットに対する新しいトレーニング手法であるProbTaggingを提案する。
論文 参考訳(メタデータ) (2020-04-21T08:32:57Z) - Learning from Positive and Unlabeled Data with Arbitrary Positive Shift [11.663072799764542]
本稿では,未ラベルデータに対して任意の非表現陽性データであってもPU学習が可能であることを示す。
これを統計的に一貫した2つの手法に統合し、任意の正のバイアスに対処する。
実験により,多数の実世界のデータセットにまたがる手法の有効性が示された。
論文 参考訳(メタデータ) (2020-02-24T13:53:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。