論文の概要: Classify and Generate Reciprocally: Simultaneous Positive-Unlabelled
Learning and Conditional Generation with Extra Data
- arxiv url: http://arxiv.org/abs/2006.07841v1
- Date: Sun, 14 Jun 2020 08:27:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 10:01:47.259684
- Title: Classify and Generate Reciprocally: Simultaneous Positive-Unlabelled
Learning and Conditional Generation with Extra Data
- Title(参考訳): 相互に分類・生成する:同時正定値学習と余剰データを用いた条件生成
- Authors: Bing Yu, Ke Sun, He Wang, Zhouchen Lin, Zhanxing Zhu
- Abstract要約: クラスラベルデータの不足は、幅広い機械学習問題において、ユビキタスなボトルネックとなっている。
本稿では,この問題に対して,余分なラベル付きデータを用いた正のアンラベル付き(PU)分類と条件生成を活用することで対処する。
本稿では,PU分類と条件生成を併用した新たなトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 84.41176783003728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scarcity of class-labeled data is a ubiquitous bottleneck in a wide range
of machine learning problems. While abundant unlabeled data normally exist and
provide a potential solution, it is extremely challenging to exploit them. In
this paper, we address this problem by leveraging Positive-Unlabeled~(PU)
classification and conditional generation with extra unlabeled data
\emph{simultaneously}, both of which aim to make full use of agnostic unlabeled
data to improve classification and generation performances. In particular, we
present a novel training framework to jointly target both PU classification and
conditional generation when exposing to extra data, especially
out-of-distribution unlabeled data, by exploring the interplay between them: 1)
enhancing the performance of PU classifiers with the assistance of a novel
Conditional Generative Adversarial Network~(CGAN) that is robust to noisy
labels, 2) leveraging extra data with predicted labels from a PU classifier to
help the generation. Our key contribution is a Classifier-Noise-Invariant
Conditional GAN~(CNI-CGAN) that can learn the clean data distribution from
noisy labels predicted by a PU classifier. Theoretically, we proved the optimal
condition of CNI-CGAN and experimentally, we conducted extensive evaluations on
diverse datasets, verifying the simultaneous improvements on both
classification and generation.
- Abstract(参考訳): クラスラベルデータの不足は、幅広い機械学習問題のユビキタスなボトルネックである。
ラベルのないデータは普通に存在し、潜在的な解決策を提供するが、それらを利用するのは極めて困難である。
本稿では,分類と生成性能を向上させるために,非ラベルデータを完全に活用することを目的とした,追加の未ラベルデータ \emph{simultanely} を用いて,肯定的~(PU)分類と条件生成を活用することでこの問題に対処する。
特に, 余分なデータ, 特にラベル付されていないデータに露出する場合の, pu分類と条件生成の両方を共同でターゲットとした新しい学習枠組みを提案する。
1) 雑音ラベルに対するロバストな条件付き生成型adversarial network~(cgan)の助けを借りて, pu分類器の性能を向上させること。
2) pu分類器から予測ラベルによる余分なデータを活用して生成を支援する。
我々の重要な貢献は、PU分類器によって予測されるノイズラベルからクリーンなデータ分布を学習できる分類器-雑音不変条件GAN~(CNI-CGAN)である。
理論的には, CNI-CGANの最適条件を実証し, 多様なデータセットについて広範な評価を行い, 分類と生成の同時的改善を検証した。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Bridging the Gap: Learning Pace Synchronization for Open-World Semi-Supervised Learning [44.91863420044712]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
本稿では,(1)モデル偏差を軽減するためにクラス固有の負のマージンを課するアダプティブ・コミュニケート・ラミナル・ロス,(2)モデルによって予測される擬似ラベルを利用した擬似ラベル・コントラッシブ・クラスタリングについて紹介する。
本手法は,授業の学習速度のバランスを保ち,画像Netデータセットの平均精度を3%向上させる。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Mutual Information Learned Classifiers: an Information-theoretic
Viewpoint of Training Deep Learning Classification Systems [9.660129425150926]
既存のクロスエントロピー損失最小化問題は,基礎となるデータ分布のラベル条件エントロピーを本質的に学習することを示す。
ラベルと入力の相互情報を学習することで、ディープニューラルネットワーク分類器を訓練する相互情報学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T01:06:30Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。