論文の概要: Transform consistency for learning with noisy labels
- arxiv url: http://arxiv.org/abs/2103.13872v1
- Date: Thu, 25 Mar 2021 14:33:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 17:56:38.836708
- Title: Transform consistency for learning with noisy labels
- Title(参考訳): 雑音ラベルを用いた学習のための変換整合性
- Authors: Rumeng Yi, Yaping Huang
- Abstract要約: 単一のネットワークのみを用いてクリーンサンプルを同定する手法を提案する。
きれいなサンプルは元のイメージおよび変形したイメージのための一貫した予測に達することを好みます。
ノイズラベルの負の影響を軽減するために,オフラインのハードラベルとオンラインのソフトラベルを用いて分類損失を設計する。
- 参考スコア(独自算出の注目度): 9.029861710944704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is crucial to distinguish mislabeled samples for dealing with noisy
labels. Previous methods such as Coteaching and JoCoR introduce two different
networks to select clean samples out of the noisy ones and only use these clean
ones to train the deep models. Different from these methods which require to
train two networks simultaneously, we propose a simple and effective method to
identify clean samples only using one single network. We discover that the
clean samples prefer to reach consistent predictions for the original images
and the transformed images while noisy samples usually suffer from inconsistent
predictions. Motivated by this observation, we introduce to constrain the
transform consistency between the original images and the transformed images
for network training, and then select small-loss samples to update the
parameters of the network. Furthermore, in order to mitigate the negative
influence of noisy labels, we design a classification loss by using the
off-line hard labels and on-line soft labels to provide more reliable
supervisions for training a robust model. We conduct comprehensive experiments
on CIFAR-10, CIFAR-100 and Clothing1M datasets. Compared with the baselines, we
achieve the state-of-the-art performance. Especially, in most cases, our
proposed method outperforms the baselines by a large margin.
- Abstract(参考訳): 騒がしいラベルを扱うために誤記されたサンプルを区別することが重要である。
CoteachingやJoCoRといった従来の手法では、2つの異なるネットワークを導入して、ノイズの多いものからクリーンなサンプルを選択し、これらクリーンなものを使って深層モデルのトレーニングを行っている。
2つのネットワークを同時に訓練するこれらの方法とは違って、1つのネットワークのみを用いてクリーンサンプルを識別する簡易かつ効率的な手法を提案する。
清潔なサンプルは元の画像と変換された画像の一貫した予測に到達するのが好ましいが、ノイズの多いサンプルは通常一貫性のない予測に苦しむ。
本研究の目的は,ネットワークトレーニングにおいて,元の画像と変換された画像との変換一貫性を制約し,ネットワークのパラメータを更新するために小さなサンプルを選択することである。
さらに,ノイズラベルの悪影響を軽減するために,オフラインハードラベルとオンラインソフトラベルを用いて分類損失を設計し,ロバストモデルをトレーニングするためのより信頼性の高い監督を提供する。
CIFAR-10, CIFAR-100, Clothing1Mデータセットに関する総合的な実験を行った。
ベースラインと比較して、最先端のパフォーマンスを実現します。
特に,ほとんどの場合,提案手法はベースラインよりも大きなマージンで性能が向上する。
関連論文リスト
- Mitigating Noisy Supervision Using Synthetic Samples with Soft Labels [13.314778587751588]
ノイズラベルは、特にクラウドソーシングやWeb検索から派生した大規模データセットにおいて、現実世界のデータセットにおいてユビキタスである。
トレーニング中にノイズの多いラベルを過度に適合させる傾向にあるため、ノイズの多いデータセットでディープニューラルネットワークをトレーニングすることは難しい。
ノイズラベルの影響を軽減するために,新しい合成サンプルを用いてモデルを訓練するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-22T04:49:39Z) - Robust Noisy Label Learning via Two-Stream Sample Distillation [48.73316242851264]
ノイズラベル学習は、ノイズラベルの監督の下で堅牢なネットワークを学習することを目的としている。
我々はTSSD(Two-Stream Sample Distillation)と呼ばれるシンプルで効果的なサンプル選択フレームワークを設計する。
このフレームワークは、ネットワークトレーニングの堅牢性を改善するために、クリーンなラベルでより高品質なサンプルを抽出することができる。
論文 参考訳(メタデータ) (2024-04-16T12:18:08Z) - Pairwise Similarity Distribution Clustering for Noisy Label Learning [0.0]
ノイズラベル学習は、ノイズラベルを持つ大量のサンプルを使用してディープニューラルネットワークをトレーニングすることを目的としている。
トレーニングサンプルを1つのクリーンなセットと別のノイズのあるセットに分割する,単純で効果的なサンプル選択アルゴリズムを提案する。
CIFAR-10、CIFAR-100、Clothing1Mといった様々なベンチマークデータセットの実験結果は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-04-02T11:30:22Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Sample selection for efficient image annotation [14.695979686066066]
監視対象検出は、人間レベルのパフォーマンスを達成する多くのベンチマークデータセットで成功したことが証明されている。
ラベルなしデータセットから最も有益な画像をサンプリングする効率的な画像選択手法を提案する。
本手法は,完全な手動ラベリング設定と比較して,手動アノテーション作業の最大80%を削減でき,ランダムサンプリングよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-05-10T21:25:10Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Bridging In- and Out-of-distribution Samples for Their Better
Discriminability [18.84265231678354]
2つの中間に位置するサンプルを考慮し、それらをネットワークのトレーニングに使用する。
我々は複数の画像変換を用いて、様々な方法で入力を破損させ、重大度レベルが異なるようなサンプルを生成する。
クリーンなIDサンプルをトレーニングしたネットワークを用いて,単一の画像変換によって生成されたサンプルが,IDとOODの間にどこにあるかを推定する。
論文 参考訳(メタデータ) (2021-01-07T11:34:18Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。