論文の概要: Robust and On-the-fly Dataset Denoising for Image Classification
- arxiv url: http://arxiv.org/abs/2003.10647v2
- Date: Thu, 9 Apr 2020 04:59:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 08:51:48.283055
- Title: Robust and On-the-fly Dataset Denoising for Image Classification
- Title(参考訳): 画像分類のためのロバストかつオンザフライデータセット
- Authors: Jiaming Song, Lunjia Hu, Michael Auli, Yann Dauphin, Tengyu Ma
- Abstract要約: On-the-fly Data Denoising (ODD)は、間違ったラベルの例に対して堅牢だが、通常のトレーニングと比べて計算オーバーヘッドはほぼゼロである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。
- 参考スコア(独自算出の注目度): 72.10311040730815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memorization in over-parameterized neural networks could severely hurt
generalization in the presence of mislabeled examples. However, mislabeled
examples are hard to avoid in extremely large datasets collected with weak
supervision. We address this problem by reasoning counterfactually about the
loss distribution of examples with uniform random labels had they were trained
with the real examples, and use this information to remove noisy examples from
the training set. First, we observe that examples with uniform random labels
have higher losses when trained with stochastic gradient descent under large
learning rates. Then, we propose to model the loss distribution of the
counterfactual examples using only the network parameters, which is able to
model such examples with remarkable success. Finally, we propose to remove
examples whose loss exceeds a certain quantile of the modeled loss
distribution. This leads to On-the-fly Data Denoising (ODD), a simple yet
effective algorithm that is robust to mislabeled examples, while introducing
almost zero computational overhead compared to standard training. ODD is able
to achieve state-of-the-art results on a wide range of datasets including
real-world ones such as WebVision and Clothing1M.
- Abstract(参考訳): 過パラメータニューラルネットワークの記憶は、誤記された例の存在下での一般化を著しく損なう可能性がある。
しかし、弱い監督の下で収集された非常に大きなデータセットでは、誤ったラベルの例を避けるのは難しい。
実例で学習した場合のランダムラベル付き例の損失分布を反則的に推論することでこの問題に対処し、この情報を用いてトレーニングセットからノイズの多い例を取り除く。
まず,一様ランダムラベルの例は,学習率の高い確率勾配降下の訓練において,高い損失率を示す。
そこで本研究では, ネットワークパラメータのみを用いて, 対実例の損失分布をモデル化し, 顕著な成功例をモデル化する。
最後に,モデル化された損失分布の量子量を超える損失の例を取り除くことを提案する。
この結果、On-the-fly Data Denoising (ODD)は、誤ってラベル付けされた例に対して堅牢で、通常のトレーニングと比べて計算オーバーヘッドがほとんどない単純なアルゴリズムである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。
関連論文リスト
- Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Regularly Truncated M-estimators for Learning with Noisy Labels [79.36560434324586]
本稿では,上記の2つの問題に同時に対処するために,RTME (Trruncated M-estimator) を提案する。
具体的には、RTMEは、切り離されたM推定器とオリジナルのM推定器の間でモードを交互に切り替えることができる。
当社の戦略がラベルノイズ耐性であることを実証します。
論文 参考訳(メタデータ) (2023-09-02T10:22:20Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Characterizing Datapoints via Second-Split Forgetting [93.99363547536392]
我々は、オリジナルのトレーニング例が忘れられた後(もしあれば)のエポックを追跡する補足的メトリックである$$-second-$split$$forgetting$$$time$ (SSFT)を提案する。
例えば$mislabeled$の例はすぐに忘れられ、$rare$の例は比較的ゆっくりと忘れられています。
SSFTは、(i)間違ったラベル付きサンプルを識別し、その除去により一般化が向上し、(ii)障害モードに関する洞察を提供する。
論文 参考訳(メタデータ) (2022-10-26T21:03:46Z) - DiscrimLoss: A Universal Loss for Hard Samples and Incorrect Samples
Discrimination [28.599571524763785]
ラベルノイズ(すなわち不正なデータ)が与えられた場合、ディープニューラルネットワークはラベルノイズとモデル性能を徐々に記憶する。
この問題を解消するために,カリキュラム学習を提案し,学習サンプルを有意義な順序で順序付けすることで,モデル性能と一般化を向上させる。
論文 参考訳(メタデータ) (2022-08-21T13:38:55Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - When does loss-based prioritization fail? [18.982933391138268]
ノイズや破損したデータのあるシナリオでは,損失に基づく加速度法が劣化することを示す。
例題の難易度は、ノイズを他のタイプの難易度例から正しく分離する必要がある。
論文 参考訳(メタデータ) (2021-07-16T07:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。