論文の概要: Binary Classification with Instance and Label Dependent Label Noise
- arxiv url: http://arxiv.org/abs/2306.03402v1
- Date: Tue, 6 Jun 2023 04:47:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 17:22:20.895926
- Title: Binary Classification with Instance and Label Dependent Label Noise
- Title(参考訳): サンプルとラベル依存ラベルノイズを用いたバイナリ分類
- Authors: Hyungki Im and Paul Grigas
- Abstract要約: ノイズの多いサンプルによる学習は、クリーンなサンプルへのアクセスやデータの分布に関する強い仮定なしには不可能であることを示す。
その結果, ノイズの多いサンプルのみによる学習は, クリーンなサンプルへのアクセスや, データの分布に関する強い仮定なしには不可能であることが示唆された。
- 参考スコア(独自算出の注目度): 4.061135251278187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning with label dependent label noise has been extensively explored in
both theory and practice; however, dealing with instance (i.e., feature) and
label dependent label noise continues to be a challenging task. The difficulty
arises from the fact that the noise rate varies for each instance, making it
challenging to estimate accurately. The question of whether it is possible to
learn a reliable model using only noisy samples remains unresolved. We answer
this question with a theoretical analysis that provides matching upper and
lower bounds. Surprisingly, our results show that, without any additional
assumptions, empirical risk minimization achieves the optimal excess risk
bound. Specifically, we derive a novel excess risk bound proportional to the
noise level, which holds in very general settings, by comparing the empirical
risk minimizers obtained from clean samples and noisy samples. Second, we show
that the minimax lower bound for the 0-1 loss is a constant proportional to the
average noise rate. Our findings suggest that learning solely with noisy
samples is impossible without access to clean samples or strong assumptions on
the distribution of the data.
- Abstract(参考訳): ラベル依存ラベルノイズを用いた学習は理論と実践の両方で広く研究されてきたが、例(特徴)とラベル依存ラベルノイズを扱うことは依然として困難な課題である。
難易度は、各インスタンスのノイズレートが変化するため、正確な推定が困難であるという事実から生じる。
ノイズサンプルのみを使用して信頼できるモデルを学ぶことができるかどうかという問題は未解決のままである。
我々は、上と下の境界が一致する理論解析でこの質問に答える。
驚くべきことに、我々の結果は、追加の仮定なしに、経験的リスク最小化が最適な過剰なリスクバウンドを達成することを示している。
具体的には,クリーンサンプルとノイズサンプルから得られた経験的リスク最小値を比較することで,ノイズレベルに比例する新たな過大リスクを導出する。
第2に,0-1損失に対するミニマックス下限は,平均雑音率に比例して一定であることを示す。
以上の結果から,ノイズサンプルのみを用いた学習は,クリーンサンプルやデータの分布に関する強い仮定がなければ不可能であることが示唆された。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Uncertainty-Aware Learning Against Label Noise on Imbalanced Datasets [23.4536532321199]
不整合データセットのラベルノイズを処理するための不確かさを意識したラベル補正フレームワークを提案する。
本研究では,不均衡なデータセットのラベルノイズを処理するために,不確かさを意識したラベル補正フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T11:35:55Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - LongReMix: Robust Learning with High Confidence Samples in a Noisy Label
Environment [33.376639002442914]
新しい2段ノイズラベルトレーニングアルゴリズムLongReMixを提案します。
CIFAR-10, CIFAR-100, WebVision, Clothing1M, Food101-NでLongReMixを試験した。
私たちのアプローチは、ほとんどのデータセットで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-06T18:48:40Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Learning with Instance-Dependent Label Noise: A Sample Sieve Approach [24.143469284851456]
人間のアノテートされたラベルは、しばしばノイズを起こしやすい。
このようなノイズの存在は、結果として生じるディープニューラルネットワーク(DNN)モデルの性能を低下させる。
我々はCORES$2$を提案し、これは腐敗した例を徐々に Sieves する。
論文 参考訳(メタデータ) (2020-10-05T21:44:09Z) - Confidence Scores Make Instance-dependent Label-noise Learning Possible [129.84497190791103]
ノイズのあるラベルで学習する際、そのラベルはノイズモデルと呼ばれる遷移分布に従ってランダムに他のクラスに移動することができる。
我々は、各インスタンスラベル対に信頼スコアを付与する、信頼スコア付きインスタンス依存ノイズ(CSIDN)を導入する。
信頼性スコアの助けを借りて、各インスタンスの遷移分布を推定できる。
論文 参考訳(メタデータ) (2020-01-11T16:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。