論文の概要: Salvage Reusable Samples from Noisy Data for Robust Learning
- arxiv url: http://arxiv.org/abs/2008.02427v1
- Date: Thu, 6 Aug 2020 02:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:47:28.921375
- Title: Salvage Reusable Samples from Noisy Data for Robust Learning
- Title(参考訳): ロバスト学習のためのノイズデータからの回収可能なサンプル
- Authors: Zeren Sun, Xian-Sheng Hua, Yazhou Yao, Xiu-Shen Wei, Guosheng Hu, Jian
Zhang
- Abstract要約: 本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
- 参考スコア(独自算出の注目度): 70.48919625304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the existence of label noise in web images and the high memorization
capacity of deep neural networks, training deep fine-grained (FG) models
directly through web images tends to have an inferior recognition ability. In
the literature, to alleviate this issue, loss correction methods try to
estimate the noise transition matrix, but the inevitable false correction would
cause severe accumulated errors. Sample selection methods identify clean
("easy") samples based on the fact that small losses can alleviate the
accumulated errors. However, "hard" and mislabeled examples that can both boost
the robustness of FG models are also dropped. To this end, we propose a
certainty-based reusable sample selection and correction approach, termed as
CRSSC, for coping with label noise in training deep FG models with web images.
Our key idea is to additionally identify and correct reusable samples, and then
leverage them together with clean examples to update the networks. We
demonstrate the superiority of the proposed approach from both theoretical and
experimental perspectives.
- Abstract(参考訳): Web画像にラベルノイズがあり、ディープニューラルネットワークの高記憶能力があるため、Web画像を介して直接深部きめ細かい(FG)モデルを訓練することは、認識能力が劣る傾向にある。
この問題を緩和するために、損失補正法はノイズ遷移行列の推定を試みるが、避けられない誤訂正は重度の累積誤差を引き起こす。
サンプル選択方法は、小さな損失が蓄積したエラーを軽減できるという事実に基づいて、クリーンな(簡単)サンプルを識別する。
しかし、FGモデルのロバスト性を高める「ハード」と「ミスラベル」の例も減少する。
そこで本研究では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処する,確実性に基づく再利用可能なサンプル選択と修正手法を提案する。
重要なアイデアは、再利用可能なサンプルを識別して修正し、それらをクリーンなサンプルと一緒に活用してネットワークを更新することです。
理論と実験の両方の観点から,提案手法の優越性を示す。
関連論文リスト
- Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Label Noise-Robust Learning using a Confidence-Based Sieving Strategy [9.247916849341028]
ラベルノイズを伴うタスクの学習では、オーバーフィッティングに対するモデルの堅牢性を高めることが重要な課題である。
サンプルをラベルの破損で識別し、モデルを学習するのを防ぐ。
本研究では, 信頼度誤差と呼ばれる新しい判別基準と, クリーンサンプルとノイズサンプルを効果的に識別するためのCONFESと呼ばれるシービング戦略を提案する。
論文 参考訳(メタデータ) (2022-10-11T10:47:28Z) - DiscrimLoss: A Universal Loss for Hard Samples and Incorrect Samples
Discrimination [28.599571524763785]
ラベルノイズ(すなわち不正なデータ)が与えられた場合、ディープニューラルネットワークはラベルノイズとモデル性能を徐々に記憶する。
この問題を解消するために,カリキュラム学習を提案し,学習サンプルを有意義な順序で順序付けすることで,モデル性能と一般化を向上させる。
論文 参考訳(メタデータ) (2022-08-21T13:38:55Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Alleviating Noisy-label Effects in Image Classification via Probability
Transition Matrix [30.532481130511137]
ディープラーニングに基づく画像分類フレームワークは、しばしば、サーバ間変動に起因するノイズの多いラベル問題に悩まされる。
本稿では,ノイズ無視ブロック (NIB) と呼ばれるプラグインモジュールを提案する。
我々のNIBモジュールは、最先端の堅牢なトレーニング手法の性能を一貫して改善します。
論文 参考訳(メタデータ) (2021-10-17T17:01:57Z) - Confidence Adaptive Regularization for Deep Learning with Noisy Labels [2.0349696181833337]
ディープニューラルネットワークのノイズラベルに対する記憶効果に関する最近の研究は、ネットワークが正しくラベル付けされたトレーニングサンプルに最初に適合し、誤ってラベル付けされたサンプルを記憶することを示している。
そこで本研究では,この早期学習現象に触発されて,誤記サンプルの暗記を防止する新しい方法を提案する。
我々は,合成および実世界のデータセットに関する理論的解析と実験を行い,本手法が最先端の手法に匹敵する結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-08-18T15:51:25Z) - Transform consistency for learning with noisy labels [9.029861710944704]
単一のネットワークのみを用いてクリーンサンプルを同定する手法を提案する。
きれいなサンプルは元のイメージおよび変形したイメージのための一貫した予測に達することを好みます。
ノイズラベルの負の影響を軽減するために,オフラインのハードラベルとオンラインのソフトラベルを用いて分類損失を設計する。
論文 参考訳(メタデータ) (2021-03-25T14:33:13Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Robust and On-the-fly Dataset Denoising for Image Classification [72.10311040730815]
On-the-fly Data Denoising (ODD)は、間違ったラベルの例に対して堅牢だが、通常のトレーニングと比べて計算オーバーヘッドはほぼゼロである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。
論文 参考訳(メタデータ) (2020-03-24T03:59:26Z) - Solving Missing-Annotation Object Detection with Background
Recalibration Loss [49.42997894751021]
本稿では,新しい,かつ困難な検出シナリオに焦点を当てる。 真のオブジェクト/インスタンスの大部分は,データセットにラベル付けされていない。
従来, ソフトサンプリングを用いて, 正の例と重なり合うRoIsの勾配を再重み付けする手法が提案されてきた。
本稿では、予め定義されたIoU閾値と入力画像に基づいて損失信号を自動的に校正できる、バックグラウンド校正損失(BRL)と呼ばれる優れた解を提案する。
論文 参考訳(メタデータ) (2020-02-12T23:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。