論文の概要: Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective
- arxiv url: http://arxiv.org/abs/2212.02801v1
- Date: Tue, 6 Dec 2022 07:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 15:55:10.241197
- Title: Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective
- Title(参考訳): Dist-PU:ラベル分布から見たポジティブな学習
- Authors: Yunrui Zhao, Qianqian Xu, Yangbangyan Jiang, Peisong Wen, and Qingming
Huang
- Abstract要約: 本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
- 参考スコア(独自算出の注目度): 89.5370481649529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Positive-Unlabeled (PU) learning tries to learn binary classifiers from a few
labeled positive examples with many unlabeled ones. Compared with ordinary
semi-supervised learning, this task is much more challenging due to the absence
of any known negative labels. While existing cost-sensitive-based methods have
achieved state-of-the-art performances, they explicitly minimize the risk of
classifying unlabeled data as negative samples, which might result in a
negative-prediction preference of the classifier. To alleviate this issue, we
resort to a label distribution perspective for PU learning in this paper.
Noticing that the label distribution of unlabeled data is fixed when the class
prior is known, it can be naturally used as learning supervision for the model.
Motivated by this, we propose to pursue the label distribution consistency
between predicted and ground-truth label distributions, which is formulated by
aligning their expectations. Moreover, we further adopt the entropy
minimization and Mixup regularization to avoid the trivial solution of the
label distribution consistency on unlabeled data and mitigate the consequent
confirmation bias. Experiments on three benchmark datasets validate the
effectiveness of the proposed method.Code available at:
https://github.com/Ray-rui/Dist-PU-Positive-Unlabeled-Learning-from-a-Label-Distribution-Perspective .
- Abstract(参考訳): Positive-Unlabeled (PU) 学習は、いくつかのラベル付き正の例からバイナリ分類器を学習しようとする。
通常の半教師付き学習と比較すると、既知の負のラベルがないため、このタスクはずっと難しい。
既存のコストセンシティブな手法は最先端のパフォーマンスを達成しているが、ラベルのないデータを負のサンプルとして分類するリスクを明示的に最小化し、その結果、分類器の負の予測好みが生まれる可能性がある。
この問題を軽減するために,本稿では,PU学習のラベル分布の観点から検討する。
未ラベルデータのラベル分布が、クラス事前が分かっているときに固定されることに気付き、モデルの学習監督として自然に使用できる。
そこで本研究では,予測されたラベル分布と地中ラベル分布とのラベル分布の一貫性を追求する。
さらに,ラベルなしデータに対するラベル分布一貫性の自明な解を避けるため,エントロピー最小化とミックスアップ正規化を採用し,一致確認バイアスを緩和する。
https://github.com/Ray-rui/Dist-PU-Positive-Unlabeled-Learning-from-a-Label-Distribution-Perspective 。
関連論文リスト
- Reduction-based Pseudo-label Generation for Instance-dependent Partial Label Learning [41.345794038968776]
本稿では,誤り候補ラベルの影響を軽減するために,リダクションに基づく擬似ラベルを活用することを提案する。
推定モデルから生成した擬似ラベルと比較して,減算に基づく擬似ラベルはベイズ最適分類器との整合性が高いことを示す。
論文 参考訳(メタデータ) (2024-10-28T07:32:20Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Label distribution learning via label correlation grid [9.340734188957727]
ラベル関係の不確かさをモデル化するための textbfLabel textbfCorrelation textbfGrid (LCG) を提案する。
我々のネットワークはLCGを学習し、各インスタンスのラベル分布を正確に推定する。
論文 参考訳(メタデータ) (2022-10-15T03:58:15Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。