論文の概要: Learning with Noisy Labels through Learnable Weighting and Centroid Similarity
- arxiv url: http://arxiv.org/abs/2303.09470v2
- Date: Tue, 25 Jun 2024 14:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 23:19:26.866681
- Title: Learning with Noisy Labels through Learnable Weighting and Centroid Similarity
- Title(参考訳): 学習可能な重み付けとセントロイド類似性による雑音ラベルの学習
- Authors: Farooq Ahmad Wani, Maria Sofia Bucarelli, Fabrizio Silvestri,
- Abstract要約: ノイズラベルは、医学診断や自律運転などの領域で一般的である。
本稿では,雑音ラベルの存在下で機械学習モデルを訓練するための新しい手法を提案する。
以上の結果から,本手法は既存の最先端技術よりも一貫して優れていることがわかった。
- 参考スコア(独自算出の注目度): 5.187216033152917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel method for training machine learning models in the presence of noisy labels, which are prevalent in domains such as medical diagnosis and autonomous driving and have the potential to degrade a model's generalization performance. Inspired by established literature that highlights how deep learning models are prone to overfitting to noisy samples in the later epochs of training, we propose a strategic approach. This strategy leverages the distance to class centroids in the latent space and incorporates a discounting mechanism, aiming to diminish the influence of samples that lie distant from all class centroids. By doing so, we effectively counteract the adverse effects of noisy labels. The foundational premise of our approach is the assumption that samples situated further from their respective class centroid in the initial stages of training are more likely to be associated with noise. Our methodology is grounded in robust theoretical principles and has been validated empirically through extensive experiments on several benchmark datasets. Our results show that our method consistently outperforms the existing state-of-the-art techniques, achieving significant improvements in classification accuracy in the presence of noisy labels. The code for our proposed loss function and supplementary materials is available at https://github.com/wanifarooq/NCOD
- Abstract(参考訳): 本稿では,医療診断や自律運転などの領域で広く用いられているノイズラベルの存在下で,機械学習モデルをトレーニングする新しい手法を提案する。
深層学習モデルが,後期のトレーニングにおいて,ノイズの多いサンプルに過度に適合する傾向にあることを示す,確立された文献から着想を得た戦略的アプローチを提案する。
この戦略は、潜伏空間におけるクラスセントロイドへの距離を活用し、全てのクラスセントロイドから離れたサンプルの影響を減らし、割引機構を組み込む。
これにより,ノイズラベルの悪影響を効果的に抑制する。
提案手法の基本前提は,訓練の初期段階において,各クラスから遠ざかるサンプルがノイズに関連している可能性が高いという仮定である。
提案手法はロバストな理論原理に基づいており、いくつかのベンチマークデータセットに対する広範な実験を通じて実証的に検証されている。
以上の結果から,本手法は既存の最先端技術よりも常に優れており,ノイズラベルの存在下での分類精度が大幅に向上していることが明らかとなった。
提案する損失関数と補助材料に関するコードはhttps://github.com/wanifarooq/NCODで公開されている。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Analyze the Robustness of Classifiers under Label Noise [5.708964539699851]
教師付き学習におけるラベルノイズは、誤ったラベルまたは不正確なラベルによって特徴づけられ、モデル性能を著しく損なう。
本研究は, ラベルノイズが実用的応用に与える影響について, ますます関連する問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-12T13:51:25Z) - Fine tuning Pre trained Models for Robustness Under Noisy Labels [34.68018860186995]
トレーニングデータセットにノイズの多いラベルが存在することは、機械学習モデルのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、事前学習されたモデルの事前知識を頑健かつ効率的に伝達するTURNと呼ばれる新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-24T20:28:59Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Addressing Class Imbalance in Semi-supervised Image Segmentation: A
Study on Cardiac MRI [28.656853454251426]
特定のクラスに対する不十分なトレーニングは、生成された擬似ラベルにより多くのノイズを導入し、全体的な学習に影響を与える可能性がある。
授業中にクラスワイドのパフォーマンスを記録する信頼度アレーの維持について提案する。
これらの信頼度スコアのファジィ融合は、各サンプルにおける個々の信頼度指標を適応的に優先順位付けするために提案される。
提案手法は, 動的重み付けを施した低性能クラスをすべて考慮し, トレーニング中のノイズの大半を除去しようとするものである。
論文 参考訳(メタデータ) (2022-08-31T21:25:00Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Robust Imitation Learning from Noisy Demonstrations [81.67837507534001]
我々は,対称的損失を伴う分類リスクを最適化することにより,ロバストな模倣学習を実現することができることを示す。
擬似ラベルと協調学習を効果的に組み合わせた新しい模倣学習法を提案する。
連続制御ベンチマークによる実験結果から,本手法は最先端手法よりも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-10-20T10:41:37Z) - Early-Learning Regularization Prevents Memorization of Noisy Labels [29.04549895470588]
本稿では,ノイズの多いアノテーションの存在下で,ディープラーニングによる分類を行うための新しいフレームワークを提案する。
深層ニューラルネットワークは、"早期学習"フェーズにおいて、トレーニングデータをクリーンなラベルに適合させることが観察されている。
我々は、これらの目標に向けてモデルを操る正規化用語を設計し、偽ラベルの記憶を暗黙的に防止する。
論文 参考訳(メタデータ) (2020-06-30T23:46:33Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。