論文の概要: Combining Distance to Class Centroids and Outlier Discounting for
Improved Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2303.09470v1
- Date: Thu, 16 Mar 2023 16:43:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 14:34:54.632062
- Title: Combining Distance to Class Centroids and Outlier Discounting for
Improved Learning with Noisy Labels
- Title(参考訳): 雑音ラベルによる学習改善のためのクラスセントロイド距離とアウトリーディスカウントの組み合わせ
- Authors: Farooq Ahmad Wani, Maria Sofia Bucarelli, Fabrizio Silvestri
- Abstract要約: 本稿では,ノイズラベルの存在下で機械学習モデルを訓練する上での課題に対処する新しいアプローチを提案する。
商品の潜在空間におけるクラスセントロイド間の距離の巧妙な利用と割引戦略を組み合わせることで,ノイズラベルの問題に効果的に対処する。
- 参考スコア(独自算出の注目度): 2.7015270371106546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new approach for addressing the challenge of
training machine learning models in the presence of noisy labels. By combining
a clever usage of distance to class centroids in the items' latent space with a
discounting strategy to reduce the importance of samples far away from all the
class centroids (i.e., outliers), our method effectively addresses the issue of
noisy labels. Our approach is based on the idea that samples farther away from
their respective class centroid in the early stages of training are more likely
to be noisy. We demonstrate the effectiveness of our method through extensive
experiments on several popular benchmark datasets. Our results show that our
approach outperforms the state-of-the-art in this area, achieving significant
improvements in classification accuracy when the dataset contains noisy labels.
- Abstract(参考訳): 本稿では,ノイズラベルの存在下での機械学習モデルのトレーニングの課題に対処するための新しい手法を提案する。
アイテムの潜在空間におけるクラスセントロイド間距離の巧妙な使用法と割引戦略を組み合わせることで、全てのクラスセントロイド(すなわち、外れ値)から遠く離れたサンプルの重要性を減らし、ノイズラベルの問題に効果的に対処する。
私たちのアプローチは、トレーニングの初期段階でそれぞれのクラスセントロイドから遠く離れたサンプルの方がノイズが多い、という考え方に基づいています。
提案手法の有効性を,いくつかの一般的なベンチマークデータセットを用いた広範囲な実験により実証する。
以上の結果から,本手法は本分野の最先端技術よりも優れており,ノイズラベルを含むデータセットの分類精度が大幅に向上していることがわかった。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Analyze the Robustness of Classifiers under Label Noise [5.708964539699851]
教師付き学習におけるラベルノイズは、誤ったラベルまたは不正確なラベルによって特徴づけられ、モデル性能を著しく損なう。
本研究は, ラベルノイズが実用的応用に与える影響について, ますます関連する問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-12T13:51:25Z) - Fine tuning Pre trained Models for Robustness Under Noisy Labels [34.68018860186995]
トレーニングデータセットにノイズの多いラベルが存在することは、機械学習モデルのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、事前学習されたモデルの事前知識を頑健かつ効率的に伝達するTURNと呼ばれる新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-24T20:28:59Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Addressing Class Imbalance in Semi-supervised Image Segmentation: A
Study on Cardiac MRI [28.656853454251426]
特定のクラスに対する不十分なトレーニングは、生成された擬似ラベルにより多くのノイズを導入し、全体的な学習に影響を与える可能性がある。
授業中にクラスワイドのパフォーマンスを記録する信頼度アレーの維持について提案する。
これらの信頼度スコアのファジィ融合は、各サンプルにおける個々の信頼度指標を適応的に優先順位付けするために提案される。
提案手法は, 動的重み付けを施した低性能クラスをすべて考慮し, トレーニング中のノイズの大半を除去しようとするものである。
論文 参考訳(メタデータ) (2022-08-31T21:25:00Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Robust Imitation Learning from Noisy Demonstrations [81.67837507534001]
我々は,対称的損失を伴う分類リスクを最適化することにより,ロバストな模倣学習を実現することができることを示す。
擬似ラベルと協調学習を効果的に組み合わせた新しい模倣学習法を提案する。
連続制御ベンチマークによる実験結果から,本手法は最先端手法よりも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-10-20T10:41:37Z) - Early-Learning Regularization Prevents Memorization of Noisy Labels [29.04549895470588]
本稿では,ノイズの多いアノテーションの存在下で,ディープラーニングによる分類を行うための新しいフレームワークを提案する。
深層ニューラルネットワークは、"早期学習"フェーズにおいて、トレーニングデータをクリーンなラベルに適合させることが観察されている。
我々は、これらの目標に向けてモデルを操る正規化用語を設計し、偽ラベルの記憶を暗黙的に防止する。
論文 参考訳(メタデータ) (2020-06-30T23:46:33Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。