論文の概要: Robustness and reliability when training with noisy labels
- arxiv url: http://arxiv.org/abs/2110.03321v1
- Date: Thu, 7 Oct 2021 10:30:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:03:20.881752
- Title: Robustness and reliability when training with noisy labels
- Title(参考訳): 雑音ラベルを用いたトレーニングにおけるロバスト性と信頼性
- Authors: Amanda Olmin and Fredrik Lindsten
- Abstract要約: 教師付き学習のためのデータの遅延は、コストと時間を要する可能性がある。
ディープニューラルネットワークは、ランダムラベルの適合、正規化、ロバストな損失関数の使用を証明している。
- 参考スコア(独自算出の注目度): 12.688634089849023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Labelling of data for supervised learning can be costly and time-consuming
and the risk of incorporating label noise in large data sets is imminent. If
training a flexible discriminative model using a strictly proper loss, such
noise will inevitably shift the solution towards the conditional distribution
over noisy labels. Nevertheless, while deep neural networks have proved capable
of fitting random labels, regularisation and the use of robust loss functions
empirically mitigate the effects of label noise. However, such observations
concern robustness in accuracy, which is insufficient if reliable uncertainty
quantification is critical. We demonstrate this by analysing the properties of
the conditional distribution over noisy labels for an input-dependent noise
model. In addition, we evaluate the set of robust loss functions characterised
by an overlap in asymptotic risk minimisers under the clean and noisy data
distributions. We find that strictly proper and robust loss functions both
offer asymptotic robustness in accuracy, but neither guarantee that the
resulting model is calibrated. Moreover, overfitting is an issue in practice.
With these results, we aim to explain inherent robustness of algorithms to
label noise and to give guidance in the development of new noise-robust
algorithms.
- Abstract(参考訳): 教師あり学習のためのデータのラベル付けは費用がかかり、時間がかかるため、大きなデータセットにラベルノイズを組み込むリスクが差し迫っている。
厳密な適切な損失を用いた柔軟な判別モデルをトレーニングすると、ノイズは必然的に、ノイズラベル上の条件分布へとソリューションをシフトさせる。
それでも、ディープニューラルネットワークはランダムなラベルに適合できることが証明されている一方で、ロバストな損失関数の使用はラベルノイズの影響を実証的に緩和する。
しかし、この観測は正確さのロバスト性に関係しており、信頼できる不確かさの定量化が重要であれば不十分である。
入力依存雑音モデルに対する雑音ラベル上の条件分布の特性を解析することによりこれを実証する。
さらに、クリーンでノイズの多いデータ分布下での漸近的リスク最小化器の重複により特徴づけられるロバストな損失関数の集合を評価する。
厳密な適切な損失関数とロバスト損失関数はどちらも漸近的ロバスト性を提供するが、結果のモデルが校正されることは保証されない。
さらに、オーバーフィッティングは実践上の問題である。
これらの結果から,ノイズラベル付けアルゴリズムの固有ロバスト性を説明するとともに,新たなノイズロバストアルゴリズムの開発における指導を行う。
関連論文リスト
- SoftPatch: Unsupervised Anomaly Detection with Noisy Data [67.38948127630644]
本稿では,画像センサ異常検出におけるラベルレベルのノイズを初めて考察する。
本稿では,メモリベースの非教師付きAD手法であるSoftPatchを提案する。
既存の手法と比較して、SoftPatchは通常のデータの強力なモデリング能力を維持し、コアセットにおける過信問題を軽減する。
論文 参考訳(メタデータ) (2024-03-21T08:49:34Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Label Noise: Correcting the Forward-Correction [0.0]
ラベルノイズのあるデータセット上でニューラルネットワーク分類器を訓練することは、ノイズのあるラベルに過度に適合するリスクをもたらす。
ラベルノイズによる過度適合に対処する手法を提案する。
本研究は, オーバーフィッティングを緩和するために, トレーニング損失に低い限界を課すことを提案する。
論文 参考訳(メタデータ) (2023-07-24T19:41:19Z) - Uncertainty-aware Self-training for Low-resource Neural Sequence
Labeling [29.744621356187764]
本稿では,ニューラルシークエンスラベリング(NSL)のための新しい未知の自己学習フレームワークSeqUSTを提案する。
ベイジアンニューラルネットワーク(BNN)にモンテカルロ(MC)ドロップアウトを組み込んでトークンレベルで不確実性評価を行い、ラベルのないデータから信頼性の高い言語トークンを選択する。
ノイズロスのあるマスク付きシークエンスラベリングタスクは、ノイズのある擬似ラベルの問題を抑えることを目的とした堅牢なトレーニングを支援する。
論文 参考訳(メタデータ) (2023-02-17T02:40:04Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - Uncertainty-Aware Learning Against Label Noise on Imbalanced Datasets [23.4536532321199]
不整合データセットのラベルノイズを処理するための不確かさを意識したラベル補正フレームワークを提案する。
本研究では,不均衡なデータセットのラベルノイズを処理するために,不確かさを意識したラベル補正フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T11:35:55Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。