論文の概要: Winning Ticket in Noisy Image Classification
- arxiv url: http://arxiv.org/abs/2102.11628v1
- Date: Tue, 23 Feb 2021 11:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 13:52:53.804672
- Title: Winning Ticket in Noisy Image Classification
- Title(参考訳): ノイズ画像分類における勝利チケット
- Authors: Taehyeon Kim, Jongwoo Ko, Jinhwan Choi, Sangwook Cho, Se-Young Yun
- Abstract要約: 現代のディープニューラルネットワーク(DNN)は、データセットにノイズ(不正確な)クラスのラベルが含まれていると不安定になります。
ここでは、元の騒々しいデータセットにクリーンなインスタンスのみを含むデータセットがより良い最適化につながることを実証的に観察します。
DNNのロスランドスケープと潜在機能を見て、勝ったチケットを特定するための2つのシンプルで効果的な戦略を提案します。
- 参考スコア(独自算出の注目度): 9.02616574469019
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern deep neural networks (DNNs) become frail when the datasets contain
noisy (incorrect) class labels. Many robust techniques have emerged via loss
adjustment, robust loss function, and clean sample selection to mitigate this
issue using the whole dataset. Here, we empirically observe that the dataset
which contains only clean instances in original noisy datasets leads to better
optima than the original dataset even with fewer data. Based on these results,
we state the winning ticket hypothesis: regardless of robust methods, any DNNs
reach the best performance when trained on the dataset possessing only clean
samples from the original (winning ticket). We propose two simple yet effective
strategies to identify winning tickets by looking at the loss landscape and
latent features in DNNs. We conduct numerical experiments by collaborating the
two proposed methods purifying data and existing robust methods for CIFAR-10
and CIFAR-100. The results support that our framework consistently and
remarkably improves performance.
- Abstract(参考訳): 現代のディープニューラルネットワーク(DNN)は、データセットにノイズ(不正確な)クラスのラベルが含まれていると不安定になります。
損失調整、ロバスト損失関数、クリーンサンプル選択など、多くのロバストなテクニックが登場し、データセット全体を使用してこの問題を軽減する。
本稿では,ノイズの多いデータセットのクリーンなインスタンスのみを含むデータセットが,少ないデータでも元のデータセットよりも優れたオプティマ性をもたらすことを実証的に観察する。
これらの結果に基づき, 入賞券仮説を述べる: 頑健な手法にかかわらず, DNNは, オリジナル(入賞券)のクリーンなサンプルしか持たないデータセット上で訓練すると, 最高の性能に達する。
DNNのロスランドスケープと潜在機能を見て、勝ったチケットを特定するための2つのシンプルで効果的な戦略を提案します。
CIFAR-10とCIFAR-100の2つのデータ浄化手法と既存のロバスト手法を連携させて数値実験を行います。
その結果、我々のフレームワークは継続的に、そして著しくパフォーマンスを向上します。
関連論文リスト
- A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - Evaluating Graph Neural Networks for Link Prediction: Current Pitfalls
and New Benchmarking [66.83273589348758]
リンク予測は、グラフのエッジの一部のみに基づいて、目に見えないエッジが存在するかどうかを予測しようとする。
近年,この課題にグラフニューラルネットワーク(GNN)を活用すべく,一連の手法が導入されている。
これらの新しいモデルの有効性をよりよく評価するために、新しい多様なデータセットも作成されている。
論文 参考訳(メタデータ) (2023-06-18T01:58:59Z) - Knockoffs-SPR: Clean Sample Selection in Learning with Noisy Labels [56.81761908354718]
雑音ラベルを用いた学習のための,理論的に保証されたクリーンサンプル選択フレームワークを提案する。
Knockoffs-SPRは、標準的な教師付きトレーニングパイプラインのサンプル選択モジュールと見なすことができる。
さらに、ラベルなしデータとしてノイズデータのサポートを利用する半教師付きアルゴリズムと組み合わせる。
論文 参考訳(メタデータ) (2023-01-02T07:13:28Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - INN: A Method Identifying Clean-annotated Samples via Consistency Effect
in Deep Neural Networks [1.1470070927586016]
ノイズのあるラベル付きトレーニングデータからクリーンなラベル付きデータを洗練するための新しい手法であるINNを導入する。
INN法は計算量が多いが、小型の戦略よりも安定で強力である。
論文 参考訳(メタデータ) (2021-06-29T09:06:21Z) - Learning from Noisy Labels via Dynamic Loss Thresholding [69.61904305229446]
我々はDLT(Dynamic Loss Thresholding)という新しい手法を提案する。
トレーニングプロセス中、DLTは各サンプルの損失値を記録し、動的損失閾値を算出する。
CIFAR-10/100 と Clothing1M の実験は、最近の最先端手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-04-01T07:59:03Z) - Augmentation Strategies for Learning with Noisy Labels [3.698228929379249]
ノイズラベル付き学習」問題に取り組むアルゴリズムについて,様々な拡張戦略を評価した。
ロスモデリングタスクと学習のための別のセットに拡張の1つのセットを使用することが最も効果的であることがわかります。
我々は,この拡張戦略を最先端技術に導入し,評価されたすべての騒音レベルにおける性能向上を実証する。
論文 参考訳(メタデータ) (2021-03-03T02:19:35Z) - A Unified Plug-and-Play Framework for Effective Data Denoising and
Robust Abstention [4.200576272300216]
基礎となるデータ密度を利用した統合フィルタリングフレームワークを提案する。
我々のフレームワークは、トレーニングデータを効果的にデノベートし、不確実なテストデータポイントの予測を避けることができる。
論文 参考訳(メタデータ) (2020-09-25T04:18:08Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。