論文の概要: Noisy-label Learning with Sample Selection based on Noise Rate Estimate
- arxiv url: http://arxiv.org/abs/2305.19486v1
- Date: Wed, 31 May 2023 01:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 18:56:49.106076
- Title: Noisy-label Learning with Sample Selection based on Noise Rate Estimate
- Title(参考訳): 雑音率推定に基づくサンプル選択による雑音ラベル学習
- Authors: Arpit Garg, Cuong Nguyen, Rafael Felix, Thanh-Toan Do, Gustavo
Carneiro
- Abstract要約: ノイズラベルは、ノイズラベルのトレーニングサンプルをオーバーフィットさせるディープモデルの容量が高いため、ディープラーニングでは困難である。
本稿では,最新技術(SOTA)に適応可能な新しい雑音ラベル学習グラフィカルモデルを提案する。
- 参考スコア(独自算出の注目度): 30.922188228545906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Noisy-labels are challenging for deep learning due to the high capacity of
the deep models that can overfit noisy-label training samples. Arguably the
most realistic and coincidentally challenging type of label noise is the
instance-dependent noise (IDN), where the labelling errors are caused by the
ambivalent information present in the images. The most successful label noise
learning techniques to address IDN problems usually contain a noisy-label
sample selection stage to separate clean and noisy-label samples during
training. Such sample selection depends on a criterion, such as loss or
gradient, and on a curriculum to define the proportion of training samples to
be classified as clean at each training epoch.
Even though the estimated noise rate from the training set appears to be a
natural signal to be used in the definition of this curriculum, previous
approaches generally rely on arbitrary thresholds or pre-defined selection
functions to the best of our knowledge. This paper addresses this research gap
by proposing a new noisy-label learning graphical model that can easily
accommodate state-of-the-art (SOTA) noisy-label learning methods and provide
them with a reliable noise rate estimate to be used in a new sample selection
curriculum. We show empirically that our model integrated with many SOTA
methods can improve their results in many IDN benchmarks, including synthetic
and real-world datasets.
- Abstract(参考訳): ノイズラベルトレーニングサンプルを過剰に活用できる深層モデルのキャパシティが高いため、ディープラーニングではノイズラベルが難しい。
間違いなく最も現実的で偶然に挑戦的なラベルノイズのタイプはインスタンス依存ノイズ(idn)であり、画像に存在する曖昧な情報によってラベルエラーが発生する。
IDN問題に対処する最も成功したラベルノイズ学習技術は、トレーニング中にクリーンおよびノイズラベルサンプルを分離するノイズラベルサンプル選択段階を含む。
このようなサンプルの選択は、損失や勾配などの基準や、各トレーニングエポックにおいてクリーンに分類されるトレーニングサンプルの割合を定義するカリキュラムに依存する。
トレーニングセットから推定されたノイズ率は、このカリキュラムの定義に使用する自然な信号であるように思われるが、従来のアプローチでは、一般的に、任意のしきい値や事前定義された選択関数に依存する。
本稿では,新しいサンプル選択カリキュラムで用いられる信頼性の高いノイズ率推定を,最先端(SOTA)学習手法に容易に対応できる新しいノイズラベル学習グラフィカルモデルを提案することで,この研究ギャップを解消する。
我々は,多くのSOTA手法と統合されたモデルが,合成および実世界のデータセットを含む多くのIDNベンチマークで結果を改善することを実証的に示す。
関連論文リスト
- Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - PASS: Peer-Agreement based Sample Selection for training with Noisy Labels [16.283722126438125]
ノイズラベルサンプルの頻度は、深層学習において重要な課題となり、過剰適合効果を誘発する。
現在の方法論は、しばしばノイズとクリーンなラベルのサンプルを分離するために、小さな損失仮説や特徴に基づく選択に依存している。
本稿では,PASS (Peer-Agreement based Sample Selection) と呼ばれる新しいノイズラベル検出手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T00:35:33Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。