論文の概要: GANs for learning from very high class conditional noisy labels
- arxiv url: http://arxiv.org/abs/2010.09577v1
- Date: Mon, 19 Oct 2020 15:01:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:32:47.714883
- Title: GANs for learning from very high class conditional noisy labels
- Title(参考訳): 極高次条件付き雑音ラベルから学ぶためのGAN
- Authors: Sandhya Tripathi and N Hemachandra
- Abstract要約: 我々は、GAN(Generative Adversarial Networks)を用いて、バイナリ分類のためのクラス条件付きラベルノイズ(CCN)ロバストなスキームを設計する。
まず、ノイズラベル付きデータと0.1%または1%クリーンラベルから正しいラベル付きデータポイントのセットを生成する。
- 参考スコア(独自算出の注目度): 1.6516902135723865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We use Generative Adversarial Networks (GANs) to design a class conditional
label noise (CCN) robust scheme for binary classification. It first generates a
set of correctly labelled data points from noisy labelled data and 0.1% or 1%
clean labels such that the generated and true (clean) labelled data
distributions are close; generated labelled data is used to learn a good
classifier. The mode collapse problem while generating correct feature-label
pairs and the problem of skewed feature-label dimension ratio ($\sim$ 784:1)
are avoided by using Wasserstein GAN and a simple data representation change.
Another WGAN with information-theoretic flavour on top of the new
representation is also proposed. The major advantage of both schemes is their
significant improvement over the existing ones in presence of very high CCN
rates, without either estimating or cross-validating over the noise rates. We
proved that KL divergence between clean and noisy distribution increases w.r.t.
noise rates in symmetric label noise model; can be extended to high CCN rates.
This implies that our schemes perform well due to the adversarial nature of
GANs. Further, use of generative approach (learning clean joint distribution)
while handling noise enables our schemes to perform better than discriminative
approaches like GLC, LDMI and GCE; even when the classes are highly imbalanced.
Using Friedman F test and Nemenyi posthoc test, we showed that on high
dimensional binary class synthetic, MNIST and Fashion MNIST datasets, our
schemes outperform the existing methods and demonstrate consistent performance
across noise rates.
- Abstract(参考訳): 我々は,二分分類のためのクラス条件ラベルノイズ(ccn)ロバストスキームの設計にgans(generative adversarial networks)を用いる。
まず、ノイズラベル付きデータと0.1%または1%クリーンラベルから正しいラベル付きデータポイントのセットを生成し、生成した(真)ラベル付きデータの分布が近いようにし、生成したラベル付きデータを良い分類器を学習する。
Wasserstein GANと簡易なデータ表現変化を用いて、正しい特徴ラベル対を生成しながらモード崩壊問題を回避し、スキュード特徴ラベル次元比($784:1)の問題を回避する。
新たな表現の上に情報理論的な風味を持つ WGAN も提案されている。
両方のスキームの大きな利点は、非常に高いCCNレートの存在下で、ノイズレートを推定または相互検証することなく、既存のものよりも大幅に改善されていることである。
クリーン分布とノイズ分布の間のKLのばらつきは、対称ラベル雑音モデルにおけるWr.t.ノイズ率を増加させることが証明された。
これは、我々のスキームがganの敵対的性質によってうまく機能することを意味する。
さらに,ノイズを処理しながら生成的アプローチ(クリーンな関節分布の学習)を用いることで,GLC,LDMI,GCEなどの識別的アプローチよりも優れた性能が得られる。
Friedman F test と Nemenyi posthoc test を用いて、高次元バイナリクラス合成、MNIST と Fashion MNIST のデータセットにおいて、提案手法は既存の手法より優れ、ノイズレート全体で一貫した性能を示す。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - CSGNN: Conquering Noisy Node labels via Dynamic Class-wise Selection [45.83801634434111]
CSGNNと呼ばれるグラフニューラルネットワークのための新しいクラスワイズ選択法を提案する。
クラス不均衡問題に対処するため,クリーンノードの識別にクラスタリング手法を活用する動的クラスワイズ選択機構を導入する。
暗記効果の概念に基づくノイズラベルの問題を軽減するため、CSGNNはノイズラベルよりもクリーンノードからの学習を優先する。
論文 参考訳(メタデータ) (2023-11-20T00:57:30Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。