論文の概要: Robust Classification with Noisy Labels Based on Posterior Maximization
- arxiv url: http://arxiv.org/abs/2504.06805v1
- Date: Wed, 09 Apr 2025 11:52:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:05:43.170456
- Title: Robust Classification with Noisy Labels Based on Posterior Maximization
- Title(参考訳): 後最大化に基づく雑音ラベルを用いたロバスト分類
- Authors: Nicola Novello, Andrea M. Tonello,
- Abstract要約: 本稿では最近,教師付き分類のために提案された目的関数の$f$-divergenceに基づくクラスにおけるラベルノイズに対する頑健さについて検討する。
ラベルノイズの存在下では、$f$-PMLの目的関数のいずれかを補正して、クリーンデータセットで学習した関数と同等のニューラルネットワークが得られることを示す。
- 参考スコア(独自算出の注目度): 4.550290285002704
- License:
- Abstract: Designing objective functions robust to label noise is crucial for real-world classification algorithms. In this paper, we investigate the robustness to label noise of an $f$-divergence-based class of objective functions recently proposed for supervised classification, herein referred to as $f$-PML. We show that, in the presence of label noise, any of the $f$-PML objective functions can be corrected to obtain a neural network that is equal to the one learned with the clean dataset. Additionally, we propose an alternative and novel correction approach that, during the test phase, refines the posterior estimated by the neural network trained in the presence of label noise. Then, we demonstrate that, even if the considered $f$-PML objective functions are not symmetric, they are robust to symmetric label noise for any choice of $f$-divergence, without the need for any correction approach. This allows us to prove that the cross-entropy, which belongs to the $f$-PML class, is robust to symmetric label noise. Finally, we show that such a class of objective functions can be used together with refined training strategies, achieving competitive performance against state-of-the-art techniques of classification with label noise.
- Abstract(参考訳): 実世界の分類アルゴリズムにおいて、ラベルノイズに頑健な目的関数の設計が不可欠である。
本稿では、最近、教師付き分類のために提案された$f$-divergence-based objective functionのラベルノイズに対するロバスト性について検討する。
ラベルノイズの存在下では、$f$-PMLの目的関数のいずれかを補正して、クリーンデータセットで学習した関数と同等のニューラルネットワークが得られることを示す。
さらに,実験期間中にラベルノイズの有無を学習したニューラルネットワークによって推定された後続を改良する,新たな補正手法を提案する。
そして、検討された$f$-PML対象関数が対称でないとしても、補正アプローチを必要とせず、$f$-divergenceの任意の選択に対して対称ラベルノイズに頑健であることを示す。
これにより、$f$-PMLクラスに属するクロスエントロピーが対称ラベルノイズに対して堅牢であることを示すことができる。
最後に、このような目的関数のクラスは、洗練されたトレーニング戦略と共に利用でき、ラベルノイズを伴う分類の最先端技術に対する競争性能を達成することができることを示す。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Label Noise: Correcting the Forward-Correction [0.0]
ラベルノイズのあるデータセット上でニューラルネットワーク分類器を訓練することは、ノイズのあるラベルに過度に適合するリスクをもたらす。
ラベルノイズによる過度適合に対処する手法を提案する。
本研究は, オーバーフィッティングを緩和するために, トレーニング損失に低い限界を課すことを提案する。
論文 参考訳(メタデータ) (2023-07-24T19:41:19Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Deep Learning is Provably Robust to Symmetric Label Noise [20.496591498468778]
ある種のディープニューラルネットワーク(DNN)は、情報理論しきい値まで巨大な対称ラベルノイズを許容できることを示す。
我々は、一般的なラベルノイズに対して、ノイズデータを利用する緩和戦略はノイズデータを無視しているものよりも優れていると推測する。
論文 参考訳(メタデータ) (2022-10-26T23:41:17Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Rethinking Pseudo Labels for Semi-Supervised Object Detection [84.697097472401]
物体検出に適した確実な擬似ラベルを導入する。
我々は,クラス不均衡問題を緩和するために,各カテゴリの擬似ラベルと再重み付き損失関数を生成するために使用する閾値を動的に調整する。
提案手法では,COCOのラベル付きデータのみを用いて,教師付きベースラインを最大10%改善する。
論文 参考訳(メタデータ) (2021-06-01T01:32:03Z) - Towards Robustness to Label Noise in Text Classification via Noise
Modeling [7.863638253070439]
NLPの大規模なデータセットは、誤った自動および人間のアノテーション手順のために、ノイズの多いラベルに悩まされる。
本稿では,ラベルノイズを用いたテキスト分類の問題について検討し,分類器上での補助雑音モデルを用いてこのノイズを捉えることを目的とする。
論文 参考訳(メタデータ) (2021-01-27T05:41:57Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Multi-Objective Interpolation Training for Robustness to Label Noise [17.264550056296915]
標準教師付きコントラスト学習はラベル雑音の存在下で劣化することを示す。
コントラスト学習により学習したロバストな特徴表現を利用する新しいラベルノイズ検出手法を提案する。
合成および実世界のノイズベンチマークの実験は、MOIT/MOIT+が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2020-12-08T15:01:54Z) - When Optimizing $f$-divergence is Robust with Label Noise [10.452709936265274]
分類器の予測に対して適切に定義された$f$-divergence測度を最大化する場合, 教師付きラベルはラベルノイズに頑健であることを示す。
ラベルノイズが現れるときの$f$-divergence($f$-divergence)の族に対するよい疎結合特性を導出する。そこでは、発散がクリーン分布に定義された変分差分と、ノイズによって導入されたバイアス項との線形結合であることが示される。
論文 参考訳(メタデータ) (2020-11-07T04:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。