論文の概要: Classify and Generate Reciprocally: Simultaneous Positive-Unlabelled
Learning and Conditional Generation with Extra Data
- arxiv url: http://arxiv.org/abs/2006.07841v2
- Date: Fri, 9 Feb 2024 02:23:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 21:36:28.526524
- Title: Classify and Generate Reciprocally: Simultaneous Positive-Unlabelled
Learning and Conditional Generation with Extra Data
- Title(参考訳): 相互に分類・生成する:同時正定値学習と余剰データを用いた条件生成
- Authors: Bing Yu, Ke Sun, He Wang, Zhouchen Lin, Zhanxing Zhu
- Abstract要約: クラスラベルデータの不足は、多くの機械学習問題において、ユビキタスなボトルネックとなっている。
本稿では, 正負ラベル付き(PU)分類と, 余分なラベル付きデータによる条件生成を活用することで, この問題に対処する。
本稿では,PU分類と条件生成を併用した新たなトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 77.31213472792088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scarcity of class-labeled data is a ubiquitous bottleneck in many machine
learning problems. While abundant unlabeled data typically exist and provide a
potential solution, it is highly challenging to exploit them. In this paper, we
address this problem by leveraging Positive-Unlabeled~(PU) classification and
the conditional generation with extra unlabeled data \emph{simultaneously}. In
particular, we present a novel training framework to jointly target both PU
classification and conditional generation when exposed to extra data,
especially out-of-distribution unlabeled data, by exploring the interplay
between them: 1) enhancing the performance of PU classifiers with the
assistance of a novel Classifier-Noise-Invariant Conditional GAN~(CNI-CGAN)
that is robust to noisy labels, 2) leveraging extra data with predicted labels
from a PU classifier to help the generation. Theoretically, we prove the
optimal condition of CNI-CGAN, and experimentally, we conducted extensive
evaluations on diverse datasets, verifying the simultaneous improvements in
both classification and generation.
- Abstract(参考訳): クラスラベルデータの不足は、多くの機械学習問題においてユビキタスなボトルネックである。
豊富なラベルのないデータは一般的に存在し、潜在的な解決策を提供するが、それらを利用するのは極めて困難である。
本稿では,この問題に対して余分なラベル付きデータ \emph{simultaneally} を用いた正のラベル付き~(pu) 分類と条件付き生成を用いることで解決する。
特に、余分なデータ、特にアウト・オブ・ディストリビューション・アンラベルデータに晒された場合、PU分類と条件生成の両方を共同でターゲットとする新たなトレーニングフレームワークを提案する。
1) 雑音ラベルに頑健な新しい分類器-雑音不変条件GAN~(CNI-CGAN)によるPU分類器の性能向上。
2) pu分類器から予測ラベルによる余分なデータを活用して生成を支援する。
理論的には, cni-cganの最適条件を証明し, 実験により多様なデータセットについて広範な評価を行い, 分類と生成の両方における同時改善の検証を行った。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Bridging the Gap: Learning Pace Synchronization for Open-World Semi-Supervised Learning [44.91863420044712]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
本稿では,(1)モデル偏差を軽減するためにクラス固有の負のマージンを課するアダプティブ・コミュニケート・ラミナル・ロス,(2)モデルによって予測される擬似ラベルを利用した擬似ラベル・コントラッシブ・クラスタリングについて紹介する。
本手法は,授業の学習速度のバランスを保ち,画像Netデータセットの平均精度を3%向上させる。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Mutual Information Learned Classifiers: an Information-theoretic
Viewpoint of Training Deep Learning Classification Systems [9.660129425150926]
既存のクロスエントロピー損失最小化問題は,基礎となるデータ分布のラベル条件エントロピーを本質的に学習することを示す。
ラベルと入力の相互情報を学習することで、ディープニューラルネットワーク分類器を訓練する相互情報学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T01:06:30Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。