論文の概要: Learning with Noisy Labels: the Exploration of Error Bounds in Classification
- arxiv url: http://arxiv.org/abs/2501.15163v1
- Date: Sat, 25 Jan 2025 10:06:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:59:28.242583
- Title: Learning with Noisy Labels: the Exploration of Error Bounds in Classification
- Title(参考訳): 雑音ラベルによる学習--分類における誤り境界の探索
- Authors: Haixia Liu, Boxiao Li, Can Yang, Yang Wang,
- Abstract要約: 本稿では,ディープラーニングフレームワークにおけるノイズラベルによる分類問題に対する過大なリスクの誤差境界に着目した。
我々は、依存(混合)シーケンスの統計的誤差を推定し、関連する独立ブロックシーケンスの助けを借りてそれをバウンディングする。
主なタスクは、連続関数の近似誤差を$[0,1]d$から$mathbbRK$に見積もることである。
- 参考スコア(独自算出の注目度): 7.657250843344973
- License:
- Abstract: Numerous studies have shown that label noise can lead to poor generalization performance, negatively affecting classification accuracy. Therefore, understanding the effectiveness of classifiers trained using deep neural networks in the presence of noisy labels is of considerable practical significance. In this paper, we focus on the error bounds of excess risks for classification problems with noisy labels within deep learning frameworks. We begin by exploring loss functions with noise-tolerant properties, ensuring that the empirical minimizer on noisy data aligns with that on the true data. Next, we estimate the error bounds of the excess risks, expressed as a sum of statistical error and approximation error. We estimate the statistical error on a dependent (mixing) sequence, bounding it with the help of the associated independent block sequence. For the approximation error, we first express the classifiers as the composition of the softmax function and a continuous function from $[0,1]^d$ to $\mathbb{R}^K$. The main task is then to estimate the approximation error for the continuous function from $[0,1]^d$ to $\mathbb{R}^K$. Finally, we focus on the curse of dimensionality based on the low-dimensional manifold assumption.
- Abstract(参考訳): 多くの研究が、ラベルノイズが一般化性能の低下を招き、分類精度に悪影響を及ぼすことを示した。
したがって,雑音ラベルの存在下でのディープニューラルネットワークを用いて訓練した分類器の有効性の理解は極めて重要である。
本稿では,ディープラーニングフレームワークにおけるノイズラベルによる分類問題に対する過大なリスクの誤差境界に着目した。
まず、ノイズ耐性特性を持つ損失関数を探索し、ノイズデータ上の経験的最小化器が真のデータ上の損失関数と整合することを確かめる。
次に、統計誤差と近似誤差の和として表される余剰リスクの誤差境界を推定する。
我々は、依存(混合)シーケンスの統計的誤差を推定し、関連する独立ブロックシーケンスの助けを借りてそれをバウンディングする。
近似誤差について、まず分類器をソフトマックス関数の合成として表現し、連続函数を $[0,1]^d$ から $\mathbb{R}^K$ まで表現する。
主なタスクは、連続函数の近似誤差を $[0,1]^d$ から $\mathbb{R}^K$ に推定することである。
最後に、低次元多様体仮定に基づく次元性の呪いに焦点を当てる。
関連論文リスト
- Robust Online Classification: From Estimation to Denoising [14.535583931446807]
一般仮説クラスを用いて,特徴のオンライン分類をラベルに分類する。
観測されたノイズラベルとノイズレス特徴を用いて予測を行う。
性能は、真のラベルと比較する場合、ミニマックスリスクによって測定される。
論文 参考訳(メタデータ) (2023-09-04T16:17:39Z) - Label Noise: Correcting the Forward-Correction [0.0]
ラベルノイズのあるデータセット上でニューラルネットワーク分類器を訓練することは、ノイズのあるラベルに過度に適合するリスクをもたらす。
ラベルノイズによる過度適合に対処する手法を提案する。
本研究は, オーバーフィッティングを緩和するために, トレーニング損失に低い限界を課すことを提案する。
論文 参考訳(メタデータ) (2023-07-24T19:41:19Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Robustness and reliability when training with noisy labels [12.688634089849023]
教師付き学習のためのデータの遅延は、コストと時間を要する可能性がある。
ディープニューラルネットワークは、ランダムラベルの適合、正規化、ロバストな損失関数の使用を証明している。
論文 参考訳(メタデータ) (2021-10-07T10:30:20Z) - Instance-dependent Label-noise Learning under a Structural Causal Model [92.76400590283448]
ラベルノイズはディープラーニングアルゴリズムの性能を劣化させる。
構造因果モデルを活用することにより,実例依存型ラベルノイズ学習のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T10:42:54Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - RATT: Leveraging Unlabeled Data to Guarantee Generalization [96.08979093738024]
ラベルのないデータを利用して一般化境界を生成する手法を紹介します。
境界が0-1経験的リスク最小化に有効であることを証明します。
この作業は、見えないラベル付きデータが利用できない場合でも、ディープネットの一般化を証明するためのオプションを実践者に提供します。
論文 参考訳(メタデータ) (2021-05-01T17:05:29Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - When Optimizing $f$-divergence is Robust with Label Noise [10.452709936265274]
分類器の予測に対して適切に定義された$f$-divergence測度を最大化する場合, 教師付きラベルはラベルノイズに頑健であることを示す。
ラベルノイズが現れるときの$f$-divergence($f$-divergence)の族に対するよい疎結合特性を導出する。そこでは、発散がクリーン分布に定義された変分差分と、ノイズによって導入されたバイアス項との線形結合であることが示される。
論文 参考訳(メタデータ) (2020-11-07T04:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。