論文の概要: Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data
- arxiv url: http://arxiv.org/abs/2307.08319v1
- Date: Mon, 17 Jul 2023 08:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:15:04.488228
- Title: Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data
- Title(参考訳): 雑音ラベルと未調整ラベルデータを用いた条件付きgan学習のためのソフトカリキュラム
- Authors: Kai Katsumata, Duc Minh Vo, Tatsuya Harada, Hideki Nakayama
- Abstract要約: 本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 70.25049762295193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Label-noise or curated unlabeled data is used to compensate for the
assumption of clean labeled data in training the conditional generative
adversarial network; however, satisfying such an extended assumption is
occasionally laborious or impractical. As a step towards generative modeling
accessible to everyone, we introduce a novel conditional image generation
framework that accepts noisy-labeled and uncurated unlabeled data during
training: (i) closed-set and open-set label noise in labeled data and (ii)
closed-set and open-set unlabeled data. To combat it, we propose soft
curriculum learning, which assigns instance-wise weights for adversarial
training while assigning new labels for unlabeled data and correcting wrong
labels for labeled data. Unlike popular curriculum learning, which uses a
threshold to pick the training samples, our soft curriculum controls the effect
of each training instance by using the weights predicted by the auxiliary
classifier, resulting in the preservation of useful samples while ignoring
harmful ones. Our experiments show that our approach outperforms existing
semi-supervised and label-noise robust methods in terms of both quantitative
and qualitative performance. In particular, the proposed approach is able to
match the performance of (semi-) supervised GANs even with less than half the
labeled data.
- Abstract(参考訳): 条件付き生成逆ネットワークの訓練において、クリーンなラベル付きデータの仮定を補うためにラベルノイズまたはキュレーションされていないデータが用いられるが、そのような拡張された仮定を満たすことは、時として困難または非現実的である。
誰でもアクセス可能な生成モデリングへのステップとして、トレーニング中にノイズラベル付き未修正データを受け入れる新しい条件付き画像生成フレームワークを導入する。
(i)ラベルデータ中のクローズドセット及びオープンセットラベルノイズ
(ii)クローズドセットおよびオープンセット未ラベルデータ。
そこで本研究では,ラベル付きデータに新たなラベルを割り当て,ラベル付きデータに間違ったラベルを修正しながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
トレーニングサンプルの選択にしきい値を用いる一般的なカリキュラム学習とは違い,ソフトカリキュラムは補助分類器によって予測される重みを用いて各トレーニングインスタンスの効果を制御し,有害なサンプルを無視しながら有用なサンプルを保存する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
特に、提案手法は、ラベル付きデータの半分未満であっても、(半)教師付きGANの性能と一致させることができる。
関連論文リスト
- Semi-Supervised Variational Adversarial Active Learning via Learning to Rank and Agreement-Based Pseudo Labeling [6.771578432805963]
アクティブラーニングは、ラベルなしサンプルの選択を自動化することで、データラベリングに関わる労力を軽減することを目的としている。
トレーニング中に大量のラベルのないデータの使用を大幅に改善する新しい手法を導入する。
様々な画像分類およびセグメンテーションベンチマークデータセットにおける技術状況に対するアプローチの優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-23T00:35:07Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Active label cleaning: Improving dataset quality under resource
constraints [13.716577886649018]
ラベルノイズとして知られるデータアノテーションの欠陥は、機械学習モデルのトレーニングに有害である。
この研究は、再アノテーションのためのサンプルを優先順位付けするためのデータ駆動アプローチを提唱する。
評価されたラベルの正しさと各サンプルのラベル付け難易度に応じて格付けを行い,再現性を評価するためのシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2021-09-01T19:03:57Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - Instance Correction for Learning with Open-set Noisy Labels [145.06552420999986]
オープンセットノイズラベルの処理にはサンプル選択方式を用いる。
廃棄されたデータは間違ったラベルで書かれており、トレーニングには参加していない。
廃棄されたデータのインスタンスを変更して、廃棄されたデータの予測をラベルに一致させる。
論文 参考訳(メタデータ) (2021-06-01T13:05:55Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。