論文の概要: Positive-Unlabeled Classification under Class-Prior Shift: A
Prior-invariant Approach Based on Density Ratio Estimation
- arxiv url: http://arxiv.org/abs/2107.05045v1
- Date: Sun, 11 Jul 2021 13:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 15:53:06.448186
- Title: Positive-Unlabeled Classification under Class-Prior Shift: A
Prior-invariant Approach Based on Density Ratio Estimation
- Title(参考訳): クラス優先シフトによる正ラベル分類:密度比推定に基づく事前不変アプローチ
- Authors: Shota Nakajima, Masashi Sugiyama
- Abstract要約: 密度比推定に基づく新しいPU分類法を提案する。
提案手法の顕著な利点は、訓練段階においてクラスプライヤを必要としないことである。
- 参考スコア(独自算出の注目度): 85.75352990739154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from positive and unlabeled (PU) data is an important problem in
various applications. Most of the recent approaches for PU classification
assume that the class-prior (the ratio of positive samples) in the training
unlabeled dataset is identical to that of the test data, which does not hold in
many practical cases. In addition, we usually do not know the class-priors of
the training and test data, thus we have no clue on how to train a classifier
without them. To address these problems, we propose a novel PU classification
method based on density ratio estimation. A notable advantage of our proposed
method is that it does not require the class-priors in the training phase;
class-prior shift is incorporated only in the test phase. We theoretically
justify our proposed method and experimentally demonstrate its effectiveness.
- Abstract(参考訳): 正およびラベルなし(PU)データから学ぶことは、様々なアプリケーションにおいて重要な問題である。
pu分類に対する最近のアプローチのほとんどは、トレーニング未ラベルデータセットのクラス優先(正のサンプルの割合)がテストデータと同一であると仮定している。
さらに、私たちは通常、トレーニングとテストデータのクラスプライオリエントを知らないので、それらを使わずに分類器をトレーニングする方法の手がかりがありません。
これらの問題に対処するために,密度比推定に基づく新しいPU分類法を提案する。
提案手法の特筆すべき利点は, 学習段階ではクラスプライオリエントを必要としないこと, テスト段階でのみクラスプライオリエントシフトが組み込まれていることである。
提案手法を理論的に正当化し,その効果を実験的に実証する。
関連論文リスト
- Meta-learning for Positive-unlabeled Classification [40.11462237689747]
提案手法は,モデルがPUデータに適用された後のテスト分類リスクを最小限に抑える。
この方法は各インスタンスをニューラルネットワークを使ってタスク固有の空間に埋め込む。
提案手法は1つの実世界のデータセットと3つの実世界のデータセットで既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-06T01:50:01Z) - Contrastive Approach to Prior Free Positive Unlabeled Learning [15.269090018352875]
本稿では,前文不変表現学習を通じて特徴空間を学習することから始まる,新しいPU学習フレームワークを提案する。
提案手法は,いくつかの標準PUベンチマークデータセットにおいて,最先端のPU学習手法より優れている。
論文 参考訳(メタデータ) (2024-02-08T20:20:54Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Learning Acceptance Regions for Many Classes with Anomaly Detection [19.269724165953274]
既存の集合値分類法の多くは、トレーニングデータに現れない新しいクラスがテストデータに現れる可能性を考慮していない。
テストデータに新しいクラスが存在する可能性を考慮しつつ,受入領域を推定する汎用予測セット(GPS)手法を提案する。
従来の手法とは異なり,提案手法は精度,効率,異常検出率のバランスが良好である。
論文 参考訳(メタデータ) (2022-09-20T19:40:33Z) - Positive Unlabeled Contrastive Learning [14.975173394072053]
自己教師型事前学習パラダイムを古典的正の未ラベル(PU)設定に拡張する。
PU固有のクラスタリング手法を用いて,ラベルのないサンプルを擬似ラベル付けする手法を開発した。
提案手法は,いくつかの標準PUベンチマークデータセットに対して,最先端のPU手法を手作業で上回っている。
論文 参考訳(メタデータ) (2022-06-01T20:16:32Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。