論文の概要: Do We Really Need Gold Samples for Sample Weighting Under Label Noise?
- arxiv url: http://arxiv.org/abs/2104.09045v1
- Date: Mon, 19 Apr 2021 04:36:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:27:16.606007
- Title: Do We Really Need Gold Samples for Sample Weighting Under Label Noise?
- Title(参考訳): ラベルノイズ下でのサンプル重み付けに本当に金のサンプルが必要か?
- Authors: Aritra Ghosh, Andrew Lan
- Abstract要約: ラベルノイズにロバストなロス関数を用いることで,クリーンサンプルにアクセスせずにmw-netのトレーニングが容易になることを示す。
本手法は,クリーンなサンプルを使用しない既存のメソッドと,ゴールドサンプルを使用しないメソッドとをほぼ同等に有することを示す。
- 参考スコア(独自算出の注目度): 3.756550107432323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning with labels noise has gained significant traction recently due to
the sensitivity of deep neural networks under label noise under common loss
functions. Losses that are theoretically robust to label noise, however, often
makes training difficult. Consequently, several recently proposed methods, such
as Meta-Weight-Net (MW-Net), use a small number of unbiased, clean samples to
learn a weighting function that downweights samples that are likely to have
corrupted labels under the meta-learning framework. However, obtaining such a
set of clean samples is not always feasible in practice. In this paper, we
analytically show that one can easily train MW-Net without access to clean
samples simply by using a loss function that is robust to label noise, such as
mean absolute error, as the meta objective to train the weighting network. We
experimentally show that our method beats all existing methods that do not use
clean samples and performs on-par with methods that use gold samples on
benchmark datasets across various noise types and noise rates.
- Abstract(参考訳): ラベルノイズを用いた学習は、ラベルノイズ下の深層ニューラルネットワークの一般損失関数に対する感度が高まり、近年大きな注目を集めている。
しかし、理論的に雑音に頑健な損失は、しばしばトレーニングを困難にする。
その結果,Meta-Weight-Net (MW-Net) のような最近提案されたいくつかの手法は,メタラーニングフレームワークの下でラベルが破損した可能性のある重み付け関数を学習するために,少数の未バイアスでクリーンなサンプルを使用する。
しかし、そのようなクリーンサンプルのセットを得ることは、必ずしも実現可能であるとは限らない。
本稿では,重み付けネットワークをトレーニングするメタ目的として,平均絶対誤差などのノイズをラベル付けするロス関数を用いることで,クリーンサンプルへのアクセスなしにMW-Netのトレーニングが容易であることを解析的に示す。
提案手法は,クリーンなサンプルを使用しない既存の手法と,様々なノイズタイプやノイズ率をまたいだベンチマークデータセットでゴールドサンプルを使用する手法をほぼ同等に評価できることを実験的に示した。
関連論文リスト
- Learning with Instance-Dependent Noisy Labels by Anchor Hallucination and Hard Sample Label Correction [12.317154103998433]
従来のNoisy-Label Learning (NLL) 手法は、トレーニングサンプルの損失分布に基づいて、トレーニングデータをクリーンでノイズの多いセットに分類する。
提案手法は, 清潔さと難易度と難易度を明確に区別する。
修正されたハードサンプルと簡単なサンプルは、その後の半教師付きトレーニングでラベル付きデータとして使用される。
論文 参考訳(メタデータ) (2024-07-10T03:00:14Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Regroup Median Loss for Combating Label Noise [19.51996047333779]
深層モデルトレーニングには、注釈付きデータの大規模なデータセットが必要である。
多数のサンプルを注釈付けすることが難しいため、誤ったアノテーションによるラベルノイズは避けられない。
ノイズのあるサンプルを選択する確率を低減し,ノイズの多いサンプルの損失を正すために,Regroup Median Loss (RML)を提案する。
論文 参考訳(メタデータ) (2023-12-11T10:19:55Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Sample Prior Guided Robust Model Learning to Suppress Noisy Labels [8.119439844514973]
本稿では,サンプルの事前知識を発生させることで雑音を抑えるための深層モデルの学習を行う新しいフレームワークPGDFを提案する。
我々のフレームワークは、より有益なハードクリーンなサンプルをクリーンにラベル付けされたセットに保存することができる。
我々は,CIFAR-10とCIFAR-100に基づく合成データセットと,WebVisionとChrothing1Mを用いた実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2021-12-02T13:09:12Z) - An Ensemble Noise-Robust K-fold Cross-Validation Selection Method for
Noisy Labels [0.9699640804685629]
大規模なデータセットには、ディープニューラルネットワーク(DNN)によって記憶されるような、ラベルのずれたサンプルが含まれている傾向があります。
本稿では, ノイズデータからクリーンなサンプルを効果的に選択するために, アンサンブルノイズ・ロバスト K-fold Cross-Validation Selection (E-NKCVS) を提案する。
我々は,ラベルが手動で異なる雑音比で破損した様々な画像・テキスト分類タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-07-06T02:14:52Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。