論文の概要: Beyond Myopia: Learning from Positive and Unlabeled Data through
Holistic Predictive Trends
- arxiv url: http://arxiv.org/abs/2310.04078v1
- Date: Fri, 6 Oct 2023 08:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 23:20:39.787611
- Title: Beyond Myopia: Learning from Positive and Unlabeled Data through
Holistic Predictive Trends
- Title(参考訳): myopiaを超えて:総合的予測トレンドを通じてポジティブデータとラベルなしデータから学ぶ
- Authors: Xinrui Wang and Wenhai Wan and Chuanxin Geng and Shaoyuan LI and
Songcan Chen
- Abstract要約: 我々は、PULで興味深いが、長い間見過ごされてきた観察を公表する。
ポジティブクラスとネガティブクラスの予測傾向は、明らかに異なるパターンを示す。
本稿では,TPPにインスパイアされた新しいトレンド検出尺度を提案し,変化予測における不偏性を証明する。
- 参考スコア(独自算出の注目度): 26.79150786180822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning binary classifiers from positive and unlabeled data (PUL) is vital
in many real-world applications, especially when verifying negative examples is
difficult. Despite the impressive empirical performance of recent PUL methods,
challenges like accumulated errors and increased estimation bias persist due to
the absence of negative labels. In this paper, we unveil an intriguing yet
long-overlooked observation in PUL: \textit{resampling the positive data in
each training iteration to ensure a balanced distribution between positive and
unlabeled examples results in strong early-stage performance. Furthermore,
predictive trends for positive and negative classes display distinctly
different patterns.} Specifically, the scores (output probability) of unlabeled
negative examples consistently decrease, while those of unlabeled positive
examples show largely chaotic trends. Instead of focusing on classification
within individual time frames, we innovatively adopt a holistic approach,
interpreting the scores of each example as a temporal point process (TPP). This
reformulates the core problem of PUL as recognizing trends in these scores. We
then propose a novel TPP-inspired measure for trend detection and prove its
asymptotic unbiasedness in predicting changes. Notably, our method accomplishes
PUL without requiring additional parameter tuning or prior assumptions,
offering an alternative perspective for tackling this problem. Extensive
experiments verify the superiority of our method, particularly in a highly
imbalanced real-world setting, where it achieves improvements of up to $11.3\%$
in key metrics. The code is available at
\href{https://github.com/wxr99/HolisticPU}{https://github.com/wxr99/HolisticPU}.
- Abstract(参考訳): ポジティブおよびラベルなしデータ(pul)からのバイナリ分類器の学習は、実世界の多くのアプリケーションにおいて不可欠である。
近年のPUL手法の顕著な経験的性能にもかかわらず、負ラベルの欠如による累積誤差や推定バイアスの増加といった課題が持続している。
本稿では,各トレーニングイテレーションで正のデータをサンプリングすることで,正の例とラベルなしの例のバランスの取れた分布が早期に強いパフォーマンスをもたらすことを保証する。
さらに、ポジティブクラスとネガティブクラスの予測傾向は異なるパターンを示す。
特に,ラベル付陰例のスコア(出力確率)は一貫して減少し,ラベル付陰例のスコアはカオス的な傾向を示す。
個々の時間枠内の分類に注目するのではなく、各例のスコアをテンポラリポイントプロセス(tpp)として解釈する包括的アプローチを革新的に採用する。
これはPULの中核的な問題をこれらのスコアのトレンドを認識するものとして再定義する。
次に,トレンド検出のための新しいtppインスパイアされた尺度を提案し,その漸近的な変化予測の不偏性を証明する。
特に,パラメータチューニングや事前仮定を必要とせずにPULを実現し,この問題に対処するための代替的な視点を提供する。
大規模な実験により、特に高度に不均衡な実世界の環境では、鍵となる指標で最大11.3\%の改善が達成される。
コードは \href{https://github.com/wxr99/HolisticPU}{https://github.com/wxr99/HolisticPU} で公開されている。
関連論文リスト
- Typicalness-Aware Learning for Failure Detection [26.23185979968123]
ディープニューラルネットワーク(DNN)は、しばしば自信過剰な問題に悩まされる。
そこで本研究では,本問題に対処し,故障検出性能を向上させるために,S typicalness-Aware Learning (TAL) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T11:09:47Z) - Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Fairness Improves Learning from Noisily Labeled Long-Tailed Data [119.0612617460727]
長い尾とノイズの多いラベル付きデータは、現実世界のアプリケーションに頻繁に現れ、学習に重大な課題を課す。
2つのサブポピュレーション間のパフォーマンスギャップを正規化することから着想を得たFairness Regularizer(FR)を導入する。
導入したフェアネス正則化器は,尾部のサブポピュレーションと全体的な学習性能を向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T03:46:51Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Uncertainty-aware Pseudo-label Selection for Positive-Unlabeled Learning [10.014356492742074]
本稿では,正の未ラベル学習環境における不均衡データセットとモデル校正の問題に取り組むことを提案する。
マイノリティクラスからのシグナルを増強することにより、擬似ラベル付けはラベル付きデータセットをラベル付きデータセットから新しいサンプルで拡張する。
PUUPLは一連の実験において、高度に不均衡な設定で大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2022-01-31T12:55:47Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Collective Loss Function for Positive and Unlabeled Learning [19.058269616452545]
本稿では,正と未ラベルのデータのみから学習する集合的損失関数を提案する。
その結果,cPU は現状の PU 学習方法より一貫して優れていた。
論文 参考訳(メタデータ) (2020-05-06T03:30:22Z) - MixPUL: Consistency-based Augmentation for Positive and Unlabeled
Learning [8.7382177147041]
本稿では, 整合性正規化に基づく簡易かつ効果的なデータ拡張手法である coinedalgo を提案する。
アルゴインコーポレートは、拡張データを生成するために、教師付きおよび教師なしの一貫性トレーニングを行う。
我々は,CIFAR-10データセットの分類誤差を16.49から13.09まで,それぞれ異なる正のデータ量で平均的に改善したことを示す。
論文 参考訳(メタデータ) (2020-04-20T15:43:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。