論文の概要: A Simple Probabilistic Method for Deep Classification under
Input-Dependent Label Noise
- arxiv url: http://arxiv.org/abs/2003.06778v3
- Date: Thu, 12 Nov 2020 20:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:38:29.982082
- Title: A Simple Probabilistic Method for Deep Classification under
Input-Dependent Label Noise
- Title(参考訳): 入力依存ラベル雑音下での深部分類のための簡易確率法
- Authors: Mark Collier, Basil Mustafa, Efi Kokiopoulou, Rodolphe Jenatton, Jesse
Berent
- Abstract要約: 本稿では,入力依存(ヘテロセダスティック)ラベルノイズ下での深層分類器の訓練法を提案する。
画像セグメンテーションでは, PASCAL VOCとCityscapesのデータセットの平均IoUを, 最先端モデルで1%以上増加させる。
- 参考スコア(独自算出の注目度): 13.800625301418341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Datasets with noisy labels are a common occurrence in practical applications
of classification methods. We propose a simple probabilistic method for
training deep classifiers under input-dependent (heteroscedastic) label noise.
We assume an underlying heteroscedastic generative process for noisy labels. To
make gradient based training feasible we use a temperature parameterized
softmax as a smooth approximation to the assumed generative process. We
illustrate that the softmax temperature controls a bias-variance trade-off for
the approximation. By tuning the softmax temperature, we improve accuracy,
log-likelihood and calibration on both image classification benchmarks with
controlled label noise as well as Imagenet-21k which has naturally occurring
label noise. For image segmentation, our method increases the mean IoU on the
PASCAL VOC and Cityscapes datasets by more than 1% over the state-of-the-art
model.
- Abstract(参考訳): ノイズラベル付きデータセットは、分類法の実践的応用においてよく見られる。
本稿では,入力依存(ヘテロセダスティック)ラベルノイズ下での深層分類器の訓練法を提案する。
ノイズラベルのヘテロシステマティックな生成過程を仮定する。
勾配に基づく学習を実現するために, 推定生成過程に対する滑らかな近似として, 温度パラメータ化ソフトマックスを用いる。
ソフトマックス温度が近似に対するバイアス分散トレードオフを制御することを示す。
ソフトマックス温度をチューニングすることにより、ラベルノイズを制御した画像分類ベンチマークと、ラベルノイズを自然に発生するimagenet-21kの両方の精度、ログライク度、キャリブレーションを改善する。
画像セグメンテーションでは, PASCAL VOCとCityscapesのデータセットの平均IoUを, 最先端モデルで1%以上増加させる。
関連論文リスト
- Efficient Adaptive Label Refinement for Label Noise Learning [14.617885790129336]
本稿では,不適切なラベルを回避し,クリーンなサンプルを徹底的に学習するための適応ラベル精製(ALR)を提案する。
ALRは単純で効率的であり、ノイズや補助的なデータセットに関する事前の知識を必要としない。
人工ラベルノイズ付きベンチマークデータセット(CIFAR-10/100)と固有ノイズ付き実世界のデータセット(ANIMAL-10N, Clothing1M, WebVision)を用いて、ALRの有効性を検証する。
論文 参考訳(メタデータ) (2025-02-01T09:58:08Z) - LaplaceConfidence: a Graph-based Approach for Learning with Noisy Labels [17.66525177980075]
ラプラスエネルギーを利用したラベル信頼(クリーン確率)を得る方法であるラプラス信頼(LaplaceConfidence)を紹介する。
LaplaceConfidenceはロバストトレーニングのための総合的な方法に組み込まれており、コトレーニング技術はラベルの信頼性を損なう。
我々の実験は、LaplaceConfidenceが、合成ノイズと実世界のノイズの両方の下で、ベンチマークデータセットの最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-07-31T12:44:30Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Extended T: Learning with Mixed Closed-set and Open-set Noisy Labels [86.5943044285146]
ラベルノイズ遷移行列$T$は、真のラベルがノイズのあるものへと反転する確率を反映する。
本稿では,閉集合と開集合の混在したラベル雑音下での学習に着目した。
本手法は,従来の最先端のラベル雑音学習法よりも頑健な性能を追求し,混合ラベル雑音をモデル化する。
論文 参考訳(メタデータ) (2020-12-02T02:42:45Z) - Error-Bounded Correction of Noisy Labels [17.510654621245656]
ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
論文 参考訳(メタデータ) (2020-11-19T19:23:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。