論文の概要: TrustNet: Learning from Trusted Data Against (A)symmetric Label Noise
- arxiv url: http://arxiv.org/abs/2007.06324v1
- Date: Mon, 13 Jul 2020 11:41:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 22:56:28.837182
- Title: TrustNet: Learning from Trusted Data Against (A)symmetric Label Noise
- Title(参考訳): TrustNet:(A)対称ラベルノイズに対する信頼データからの学習
- Authors: Amirmasoud Ghiassi, Taraneh Younesian, Robert Birke, Lydia Y.Chen
- Abstract要約: ラベルノイズに対するロバスト性は、大量のデータセットで訓練された弱い教師付き分類器にとって重要な特性である。
ノイズ劣化のパターンを非対称的に学習するTrustNetを設計する。
我々は,様々なノイズパターンの下でTrustNetの強靭性を示す最先端手法との比較を行った。
- 参考スコア(独自算出の注目度): 6.743855511566885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness to label noise is a critical property for weakly-supervised
classifiers trained on massive datasets. Robustness to label noise is a
critical property for weakly-supervised classifiers trained on massive
datasets. In this paper, we first derive analytical bound for any given noise
patterns. Based on the insights, we design TrustNet that first adversely learns
the pattern of noise corruption, being it both symmetric or asymmetric, from a
small set of trusted data. Then, TrustNet is trained via a robust loss
function, which weights the given labels against the inferred labels from the
learned noise pattern. The weight is adjusted based on model uncertainty across
training epochs. We evaluate TrustNet on synthetic label noise for CIFAR-10 and
CIFAR-100, and real-world data with label noise, i.e., Clothing1M. We compare
against state-of-the-art methods demonstrating the strong robustness of
TrustNet under a diverse set of noise patterns.
- Abstract(参考訳): ラベルノイズに対するロバスト性は、大量のデータセットで訓練された弱い教師付き分類器にとって重要な特性である。
ラベルノイズに対するロバスト性は、大量のデータセットで訓練された弱い教師付き分類器にとって重要な特性である。
本稿ではまず,任意の雑音パターンに対して解析的境界を導出する。
この知見に基づいて、信頼されたデータの小さなセットから、まずノイズの破損パターンを対称的または非対称的に学習するTrustNetを設計する。
そして、TrustNetはロバストな損失関数によってトレーニングされ、学習されたノイズパターンから推測されたラベルに対して与えられたラベルを重み付けする。
重量は訓練エポック間のモデル不確実性に基づいて調整される。
我々は、CIFAR-10とCIFAR-100の合成ラベルノイズに関するTrustNetと、ラベルノイズを持つ実世界のデータ、すなわちCloting1Mを評価する。
我々は,様々なノイズパターンを用いたtrustnetの強靭性を示す最先端手法との比較を行った。
関連論文リスト
- Uncertainty-Aware Learning Against Label Noise on Imbalanced Datasets [23.4536532321199]
不整合データセットのラベルノイズを処理するための不確かさを意識したラベル補正フレームワークを提案する。
本研究では,不均衡なデータセットのラベルノイズを処理するために,不確かさを意識したラベル補正フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T11:35:55Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Robustness and reliability when training with noisy labels [12.688634089849023]
教師付き学習のためのデータの遅延は、コストと時間を要する可能性がある。
ディープニューラルネットワークは、ランダムラベルの適合、正規化、ロバストな損失関数の使用を証明している。
論文 参考訳(メタデータ) (2021-10-07T10:30:20Z) - Denoising Distantly Supervised Named Entity Recognition via a
Hypergeometric Probabilistic Model [26.76830553508229]
ハイパージオメトリ・ラーニング(HGL)は、遠距離教師付きエンティティ認識のための認知アルゴリズムである。
HGLはノイズ分布とインスタンスレベルの信頼性の両方を考慮に入れている。
実験により、HGLは遠方の監督から取得した弱いラベル付きデータを効果的に復調できることが示された。
論文 参考訳(メタデータ) (2021-06-17T04:01:25Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Approximating Instance-Dependent Noise via Instance-Confidence Embedding [87.65718705642819]
マルチクラス分類におけるラベルノイズは、学習システムの展開にとって大きな障害である。
インスタンス依存ノイズ(IDN)モデルを調査し、IDNの効率的な近似を提案し、インスタンス固有のラベル破損を捕捉する。
論文 参考訳(メタデータ) (2021-03-25T02:33:30Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - GANs for learning from very high class conditional noisy labels [1.6516902135723865]
我々は、GAN(Generative Adversarial Networks)を用いて、バイナリ分類のためのクラス条件付きラベルノイズ(CCN)ロバストなスキームを設計する。
まず、ノイズラベル付きデータと0.1%または1%クリーンラベルから正しいラベル付きデータポイントのセットを生成する。
論文 参考訳(メタデータ) (2020-10-19T15:01:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。