論文の概要: Regroup Median Loss for Combating Label Noise
- arxiv url: http://arxiv.org/abs/2312.06273v1
- Date: Mon, 11 Dec 2023 10:19:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 16:05:28.827964
- Title: Regroup Median Loss for Combating Label Noise
- Title(参考訳): ラベリング騒音に対するリグループメディア損失
- Authors: Fengpeng Li, Kemou Li, Jinyu Tian and Jiantao Zhou
- Abstract要約: 深層モデルトレーニングには、注釈付きデータの大規模なデータセットが必要である。
多数のサンプルを注釈付けすることが難しいため、誤ったアノテーションによるラベルノイズは避けられない。
ノイズのあるサンプルを選択する確率を低減し,ノイズの多いサンプルの損失を正すために,Regroup Median Loss (RML)を提案する。
- 参考スコア(独自算出の注目度): 19.51996047333779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deep model training procedure requires large-scale datasets of annotated
data. Due to the difficulty of annotating a large number of samples, label
noise caused by incorrect annotations is inevitable, resulting in low model
performance and poor model generalization. To combat label noise, current
methods usually select clean samples based on the small-loss criterion and use
these samples for training. Due to some noisy samples similar to clean ones,
these small-loss criterion-based methods are still affected by label noise. To
address this issue, in this work, we propose Regroup Median Loss (RML) to
reduce the probability of selecting noisy samples and correct losses of noisy
samples. RML randomly selects samples with the same label as the training
samples based on a new loss processing method. Then, we combine the stable mean
loss and the robust median loss through a proposed regrouping strategy to
obtain robust loss estimation for noisy samples. To further improve the model
performance against label noise, we propose a new sample selection strategy and
build a semi-supervised method based on RML. Compared to state-of-the-art
methods, for both the traditionally trained and semi-supervised models, RML
achieves a significant improvement on synthetic and complex real-world
datasets. The source code of the paper has been released.
- Abstract(参考訳): 深層モデルトレーニング手順は、注釈付きデータの大規模データセットを必要とする。
多くのサンプルに注釈を付けるのが難しいため、誤ったアノテーションによるラベルノイズは避けられないため、低モデル性能と低モデル一般化をもたらす。
ラベルノイズと戦うため、現在の方法は、通常、小損失基準に基づいてクリーンサンプルを選択し、これらのサンプルをトレーニングに使用する。
クリーンなものに類似したノイズがあるため、これらの小さな損失基準に基づく方法はラベルノイズに影響されている。
この問題に対処するため,本稿では,ノイズサンプルの選択確率とノイズサンプルの損失の正当性を低減するために,Regroup Median Loss (RML)を提案する。
RMLは、新しい損失処理法に基づいて、トレーニングサンプルと同じラベルのサンプルをランダムに選択する。
そして,提案手法を用いて,安定な平均損失とロバストな中央値の損失を組み合わせ,ノイズのあるサンプルのロバストな損失推定を行う。
ラベルノイズに対するモデル性能をさらに向上するため、新しいサンプル選択戦略を提案し、RMLに基づく半教師付き手法を構築する。
従来のトレーニングモデルとセミ教師付きモデルの両方において、最先端の手法と比較すると、rmlは合成データと複雑な実世界のデータセットにおいて大幅な改善を達成している。
論文のソースコードがリリースされた。
関連論文リスト
- Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Learning with Noisy Labels over Imbalanced Subpopulations [13.477553187049462]
ノイズラベル(LNL)による学習は,研究コミュニティから大きな注目を集めている。
ノイズラベルと不均衡なサブポピュレーションを同時に扱う新しいLNL法を提案する。
試料のクリーンな確率を推定するために, 試料相関を考慮に入れた特徴量測定手法を提案する。
論文 参考訳(メタデータ) (2022-11-16T07:25:24Z) - Self-Filtering: A Noise-Aware Sample Selection for Label Noise with
Confidence Penalization [39.90342091782778]
本研究では,歴史予測におけるノイズの多い例の変動を利用した新しい選択手法であるtextbfSelf-textbfFiltextbftering (SFT)を提案する。
具体的には、各例の履歴予測を格納したメモリバンクモジュールを導入し、その後の学習イテレーションの選択をサポートするために動的に更新する。
この項で誤分類されたカテゴリーの重みを増大させることで、損失関数は穏やかな条件下でのノイズのラベル付けに頑健である。
論文 参考訳(メタデータ) (2022-08-24T08:02:36Z) - Sample Prior Guided Robust Model Learning to Suppress Noisy Labels [8.119439844514973]
本稿では,サンプルの事前知識を発生させることで雑音を抑えるための深層モデルの学習を行う新しいフレームワークPGDFを提案する。
我々のフレームワークは、より有益なハードクリーンなサンプルをクリーンにラベル付けされたセットに保存することができる。
我々は,CIFAR-10とCIFAR-100に基づく合成データセットと,WebVisionとChrothing1Mを用いた実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2021-12-02T13:09:12Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。