論文の概要: Positive Unlabeled Contrastive Learning
- arxiv url: http://arxiv.org/abs/2206.01206v1
- Date: Wed, 1 Jun 2022 20:16:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 12:58:05.527800
- Title: Positive Unlabeled Contrastive Learning
- Title(参考訳): ポジティブなラベルなしコントラスト学習
- Authors: Anish Acharya and Sujay Sanghavi and Li Jing and Bhargav Bhushanam and
Dhruv Choudhary and Michael Rabbat and Inderjit Dhillon
- Abstract要約: 我々は、新しいPU学習目的の正ラベルなしノイズコントラスト推定(puNCE)を提案する。
puNCEは、制限された監督の下で、既存の教師なしおよび監督なしのコントラストベースラインを継続的に改善する。
- 参考スコア(独自算出の注目度): 13.994657489792102
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Self-supervised pretraining on unlabeled data followed by supervised
finetuning on labeled data is a popular paradigm for learning from limited
labeled examples. In this paper, we investigate and extend this paradigm to the
classical positive unlabeled (PU) setting - the weakly supervised task of
learning a binary classifier only using a few labeled positive examples and a
set of unlabeled samples. We propose a novel PU learning objective positive
unlabeled Noise Contrastive Estimation (puNCE) that leverages the available
explicit (from labeled samples) and implicit (from unlabeled samples)
supervision to learn useful representations from positive unlabeled input data.
The underlying idea is to assign each training sample an individual weight;
labeled positives are given unit weight; unlabeled samples are duplicated, one
copy is labeled positive and the other as negative with weights $\pi$ and
$(1-\pi)$ where $\pi$ denotes the class prior. Extensive experiments across
vision and natural language tasks reveal that puNCE consistently improves over
existing unsupervised and supervised contrastive baselines under limited
supervision.
- Abstract(参考訳): ラベル付きデータに対する自己教師付き事前学習とラベル付きデータの教師付き微調整は、限定されたラベル付き例から学ぶための一般的なパラダイムである。
本稿では,このパラダイムを,いくつかのラベル付き正の例とラベルなしのサンプルのみを用いてバイナリ分類器を学習する,古典的正の非ラベル付き(pu)設定に拡張する。
本稿では,有意な非ラベル付き入力データから有用な表現を学習するために,使用可能な明示的(ラベル付きサンプルから)と暗黙的(ラベル付きサンプルから)の監督を利用する,新しいPU学習対象の非ラベル付きノイズコントラスト推定(puNCE)を提案する。
基礎となるアイデアは、各トレーニングサンプルに個々の重みを割り当てることであり、ラベル付き正は単位重みを与えられ、ラベルなしのサンプルは複製され、一方のコピーは正にラベル付けされ、もう一方のコピーは負にラベル付けされ、その重みは$\pi$と$(1-\pi)$である。
視覚と自然言語のタスクにわたる広範な実験により、puNCEは限定的な監督の下で、既存の教師なしおよび教師なしのコントラストベースラインよりも一貫して改善されていることが明らかになった。
関連論文リスト
- Contrastive Approach to Prior Free Positive Unlabeled Learning [15.269090018352875]
本稿では,前文不変表現学習を通じて特徴空間を学習することから始まる,新しいPU学習フレームワークを提案する。
提案手法は,いくつかの標準PUベンチマークデータセットにおいて,最先端のPU学習手法より優れている。
論文 参考訳(メタデータ) (2024-02-08T20:20:54Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Adaptive Positive-Unlabelled Learning via Markov Diffusion [0.0]
Positive-Unlabelled (PU) 学習は、正のインスタンスのセットのみをラベル付けする機械学習環境である。
このアルゴリズムの主な目的は、元来問題のない正のインスタンスを含む可能性のあるインスタンスの集合を特定することである。
論文 参考訳(メタデータ) (2021-08-13T10:25:47Z) - Positive-Unlabeled Classification under Class-Prior Shift: A
Prior-invariant Approach Based on Density Ratio Estimation [85.75352990739154]
密度比推定に基づく新しいPU分類法を提案する。
提案手法の顕著な利点は、訓練段階においてクラスプライヤを必要としないことである。
論文 参考訳(メタデータ) (2021-07-11T13:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。