論文の概要: Noisy-Pair Robust Representation Alignment for Positive-Unlabeled Learning
- arxiv url: http://arxiv.org/abs/2510.01278v1
- Date: Tue, 30 Sep 2025 18:22:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.783777
- Title: Noisy-Pair Robust Representation Alignment for Positive-Unlabeled Learning
- Title(参考訳): 肯定的非ラベル学習のための雑音対ロバスト表現アライメント
- Authors: Hengwei Zhao, Zhengzhong Tu, Zhuo Zheng, Wei Wang, Junjue Wang, Rusty Feagin, Wenzhe Jiao,
- Abstract要約: Negative-Unlabeled (PU) 学習の目的は、限られた正のデータと豊富な未ラベルのデータしか利用できないバイナリ分類器を訓練することである。
補助情報を必要としない非競合型PU学習フレームワークであるNcPUを提案する。
我々は,NcPUが様々なデータセットにまたがって最先端のPUメソッドよりも大幅に改善されていることを示す。
- 参考スコア(独自算出の注目度): 24.345089357698985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Positive-Unlabeled (PU) learning aims to train a binary classifier (positive vs. negative) where only limited positive data and abundant unlabeled data are available. While widely applicable, state-of-the-art PU learning methods substantially underperform their supervised counterparts on complex datasets, especially without auxiliary negatives or pre-estimated parameters (e.g., a 14.26% gap on CIFAR-100 dataset). We identify the primary bottleneck as the challenge of learning discriminative representations under unreliable supervision. To tackle this challenge, we propose NcPU, a non-contrastive PU learning framework that requires no auxiliary information. NcPU combines a noisy-pair robust supervised non-contrastive loss (NoiSNCL), which aligns intra-class representations despite unreliable supervision, with a phantom label disambiguation (PLD) scheme that supplies conservative negative supervision via regret-based label updates. Theoretically, NoiSNCL and PLD can iteratively benefit each other from the perspective of the Expectation-Maximization framework. Empirically, extensive experiments demonstrate that: (1) NoiSNCL enables simple PU methods to achieve competitive performance; and (2) NcPU achieves substantial improvements over state-of-the-art PU methods across diverse datasets, including challenging datasets on post-disaster building damage mapping, highlighting its promise for real-world applications. Code: Code will be open-sourced after review.
- Abstract(参考訳): Positive-Unlabeled (PU) 学習の目的は、限定された正のデータと豊富な未ラベルデータしか利用できないバイナリ分類器(正対負)を訓練することである。
広く適用されているが、最先端のPU学習手法は、複雑なデータセット、特に補助的な負や事前推定パラメータ(例えば、CIFAR-100データセットの14.26%のギャップ)を使わずに、監督対象を実質的に劣っている。
主要なボトルネックは、信頼できない監督の下で差別的表現を学習することの難しさである。
この課題に対処するために,補助情報を必要としない非競合型PU学習フレームワークであるNcPUを提案する。
NcPUは、信頼できない監督にもかかわらずクラス内の表現を整列するノイズの強い非コントラスト的損失(NoiSNCL)と、後悔に基づくラベル更新を通じて保守的なネガティブな監視を提供するファントムラベル曖昧化(PLD)を組み合わせている。
理論的には、NoiSNCLとPLDは、期待-最大化フレームワークの観点から互いに反復的に利益を得られる。
1) NoiSNCLは、単純なPUメソッドで競争性能を実現し、(2) NcPUは、さまざまなデータセットにわたる最先端のPUメソッドを大幅に改善します。
コード: レビュー後にコードがオープンソース化される。
関連論文リスト
- Accessible, Realistic, and Fair Evaluation of Positive-Unlabeled Learning Algorithms [54.58593451541316]
本稿では,PU学習アルゴリズムを体系的に比較する最初のPU学習ベンチマークを提案する。
PU学習アルゴリズムの現実的かつ公正な評価に影響を及ぼす微妙で重要な要因を同定する。
論文 参考訳(メタデータ) (2025-09-29T03:13:00Z) - Unlocking the Hidden Treasures: Enhancing Recommendations with Unlabeled Data [12.53644929739924]
コラボレーティブ・フィルタリング(CF)はレコメンダ・システムの基盤となっている。
ニュートラル・ニュートラル・ネガティブ(PNN)学習パラダイムを新たに導入する。
PNNは複雑なユーザの好みを学習するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-12-24T05:07:55Z) - PSPU: Enhanced Positive and Unlabeled Learning by Leveraging Pseudo Supervision [27.690637059377643]
正・無ラベル(PU)学習は、正・無ラベルのデータのみを訓練した二項分類モデルであり、一般に、一貫性のないデータ分布による過度なリスク推定に悩まされる。
疑似教師付きPU学習フレームワーク(PSPU)を導入し、まずPUモデルをトレーニングし、疑似教師のための自信あるサンプルを収集し、これらの監督を適用してPUモデルの重みを補正する。
我々のPSPUは、MNIST, CIFAR-10, CIFAR-100における最近のPU学習方法よりも、バランスとバランスの取れた設定で優れており、産業異常検出のためのMVTecAD上での競合性能を享受している。
論文 参考訳(メタデータ) (2024-07-09T09:19:01Z) - Unraveling the Impact of Heterophilic Structures on Graph Positive-Unlabeled Learning [71.9954600831939]
実世界の多くのシナリオにおいて、肯定的無ラベル(PU)学習は不可欠であるが、そのグラフデータへの応用は未探索のままである。
グラフ上でのPU学習において重要な課題がエッジヘテロフィリーにあり、クラスプライア推定の既約性前提に直接違反していることを明らかにする。
この課題に対応するために,ラベル伝搬損失(GPL)を用いたグラフPU学習という新しい手法を導入する。
論文 参考訳(メタデータ) (2024-05-30T10:30:44Z) - Understanding Contrastive Representation Learning from Positive Unlabeled (PU) Data [28.74519165747641]
本稿では,少数のラベル付き正のセットと大きなラベル付きプールのみを利用できる,正のラベル付き学習(PU)の課題について検討する。
比較対象を減少させる非バイアスで分散した正の非ラベル型コントラスト学習(puCL)を導入する。
本稿では, 未ラベルのサンプルをソフトな正の混合物として再重み付けする, 事前認識型拡張である Positive Unlabeled InfoNCE (puNCE) を提案する。
論文 参考訳(メタデータ) (2024-02-08T20:20:54Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Learning from Positive and Unlabeled Data with Augmented Classes [17.97372291914351]
Augmented Classes (PUAC) を用いたPU学習のための非バイアスリスク推定器を提案する。
提案手法は,最適解への収束を理論的に保証する推定誤差を導出する。
論文 参考訳(メタデータ) (2022-07-27T03:40:50Z) - On Leveraging Unlabeled Data for Concurrent Positive-Unlabeled Classification and Robust Generation [72.062661402124]
余分なデータに晒された場合,PU分類と条件生成を共同で目標とする新たなトレーニングフレームワークを提案する。
我々は,CNI-CGANの最適条件を実証し,多様なデータセットについて広範な評価を行った。
論文 参考訳(メタデータ) (2020-06-14T08:27:40Z) - MixPUL: Consistency-based Augmentation for Positive and Unlabeled
Learning [8.7382177147041]
本稿では, 整合性正規化に基づく簡易かつ効果的なデータ拡張手法である coinedalgo を提案する。
アルゴインコーポレートは、拡張データを生成するために、教師付きおよび教師なしの一貫性トレーニングを行う。
我々は,CIFAR-10データセットの分類誤差を16.49から13.09まで,それぞれ異なる正のデータ量で平均的に改善したことを示す。
論文 参考訳(メタデータ) (2020-04-20T15:43:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。