論文の概要: On Leveraging Unlabeled Data for Concurrent Positive-Unlabeled Classification and Robust Generation
- arxiv url: http://arxiv.org/abs/2006.07841v3
- Date: Thu, 24 Jul 2025 01:29:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-27 16:27:24.226482
- Title: On Leveraging Unlabeled Data for Concurrent Positive-Unlabeled Classification and Robust Generation
- Title(参考訳): 同時正定値分類とロバスト生成のためのラベルなしデータの活用について
- Authors: Bing Yu, Ke Sun, He Wang, Zhouchen Lin, Zhanxing Zhu,
- Abstract要約: 余分なデータに晒された場合,PU分類と条件生成を共同で目標とする新たなトレーニングフレームワークを提案する。
我々は,CNI-CGANの最適条件を実証し,多様なデータセットについて広範な評価を行った。
- 参考スコア(独自算出の注目度): 72.062661402124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scarcity of class-labeled data is a ubiquitous bottleneck in many machine learning problems. While abundant unlabeled data typically exist and provide a potential solution, it is highly challenging to exploit them. In this paper, we address this problem by leveraging Positive-Unlabeled~(PU) classification and the conditional generation with extra unlabeled data \emph{simultaneously}. We present a novel training framework to jointly target both PU classification and conditional generation when exposed to extra data, especially out-of-distribution unlabeled data, by exploring the interplay between them: 1) enhancing the performance of PU classifiers with the assistance of a novel Classifier-Noise-Invariant Conditional GAN~(CNI-CGAN) that is robust to noisy labels, 2) leveraging extra data with predicted labels from a PU classifier to help the generation. Theoretically, we prove the optimal condition of CNI-CGAN and experimentally, we conducted extensive evaluations on diverse datasets.
- Abstract(参考訳): クラスラベルデータの不足は、多くの機械学習問題において、ユビキタスなボトルネックとなっている。
ラベルのないデータが豊富に存在するのが一般的であり、潜在的な解決策を提供するが、それらを悪用することは極めて困難である。
本稿では,正のラベル付き〜(PU)分類と,追加のラベル付きデータであるemph{simultanely}を用いた条件生成を活用することで,この問題に対処する。
本稿では, PU分類と条件生成を併用して, 余分なデータ, 特にアウト・オブ・ディストリビューションのないデータに曝露した場合に, 両者の相互作用を探索する新たなトレーニングフレームワークを提案する。
1) 雑音ラベルに頑健な新しい分類器-雑音不変条件GAN~(CNI-CGAN)の助けを借りてPU分類器の性能を向上させる。
2) PU分類器からの予測ラベルによる余分なデータを活用することにより、生成を支援する。
理論的には、CNI-CGANの最適条件を証明し、実験により、多様なデータセットに対して広範な評価を行った。
関連論文リスト
- Improving realistic semi-supervised learning with doubly robust estimation [8.828699635463265]
Semi-Supervised Learning (SSL)における大きな課題は、ラベルなしデータのクラス分布に関する制限された情報である。
本稿では,有限次元パラメータである無ラベルなクラス分布を,強い理論的保証を持つ2重頑健な推定器を用いて明示的に推定することを提案する。
この推定値を既存の手法に統合して、トレーニング中のラベルなしデータをより正確に擬似ラベル付けすることができる。
論文 参考訳(メタデータ) (2025-02-01T02:34:12Z) - Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Bridging the Gap: Learning Pace Synchronization for Open-World Semi-Supervised Learning [44.91863420044712]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
本稿では,(1)モデル偏差を軽減するためにクラス固有の負のマージンを課するアダプティブ・コミュニケート・ラミナル・ロス,(2)モデルによって予測される擬似ラベルを利用した擬似ラベル・コントラッシブ・クラスタリングについて紹介する。
本手法は,授業の学習速度のバランスを保ち,画像Netデータセットの平均精度を3%向上させる。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Mutual Information Learned Classifiers: an Information-theoretic
Viewpoint of Training Deep Learning Classification Systems [9.660129425150926]
既存のクロスエントロピー損失最小化問題は,基礎となるデータ分布のラベル条件エントロピーを本質的に学習することを示す。
ラベルと入力の相互情報を学習することで、ディープニューラルネットワーク分類器を訓練する相互情報学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T01:06:30Z) - Improving State-of-the-Art in One-Class Classification by Leveraging
Unlabeled Data [5.331436239493893]
One-Class (OC) 分類と Positive Unlabeled (PU) 学習はデータのバイナリ分類に使用される。
我々は,ラベルなしデータの信頼性に関して,最先端のOCアルゴリズムとPUアルゴリズムを多種多様なシナリオで検討した。
我々の主な推奨事項は、ラベルのないデータが信頼できる場合に最先端のPUアルゴリズムを使用することと、それ以外は最先端のOCアルゴリズムの修正を行うことである。
論文 参考訳(メタデータ) (2022-03-14T15:44:40Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。