論文の概要: A law of adversarial risk, interpolation, and label noise
- arxiv url: http://arxiv.org/abs/2207.03933v1
- Date: Fri, 8 Jul 2022 14:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 14:26:33.226408
- Title: A law of adversarial risk, interpolation, and label noise
- Title(参考訳): 敵対的リスク、補間、およびラベルノイズの法則
- Authors: Daniel Paleka, Amartya Sanyal
- Abstract要約: 教師付き学習では,データ中のラベルノイズが,多くの状況下でテスト精度に悪影響を与えることなく補間できることが示されている。
本稿では,ラベルノイズの補間が逆方向の脆弱性を引き起こすことを示し,ラベルノイズと逆方向のリスクの依存性を示す最初の定理をデータ分布の観点から証明する。
- 参考スコア(独自算出の注目度): 6.980076213134384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In supervised learning, it has been shown that label noise in the data can be
interpolated without penalties on test accuracy under many circumstances. We
show that interpolating label noise induces adversarial vulnerability, and
prove the first theorem showing the dependence of label noise and adversarial
risk in terms of the data distribution. Our results are almost sharp without
accounting for the inductive bias of the learning algorithm. We also show that
inductive bias makes the effect of label noise much stronger.
- Abstract(参考訳): 教師あり学習において,データ中のラベルノイズは,様々な状況下でテスト精度のペナルティを伴わずに補間可能であることが示されている。
ラベルノイズを補間することで、逆の脆弱性が引き起こされ、データ分布の観点からラベルノイズと逆のリスクの依存性を示す最初の定理が証明される。
我々の結果は学習アルゴリズムの帰納的バイアスを考慮せずにほぼ鋭い。
また, インダクティブバイアスはラベルノイズの効果をより強くすることを示す。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Binary Classification with Instance and Label Dependent Label Noise [4.061135251278187]
ノイズの多いサンプルによる学習は、クリーンなサンプルへのアクセスやデータの分布に関する強い仮定なしには不可能であることを示す。
その結果, ノイズの多いサンプルのみによる学習は, クリーンなサンプルへのアクセスや, データの分布に関する強い仮定なしには不可能であることが示唆された。
論文 参考訳(メタデータ) (2023-06-06T04:47:44Z) - Conformal Prediction is Robust to Dispersive Label Noise [26.380955990028294]
本研究では,不確実性定量化のための強力なツールである共形予測のロバスト性について検討した。
本理論と実験により,ノイズラベルを用いた共形予測およびリスク制御技術が保守的リスクを達成できることが示唆された。
論文 参考訳(メタデータ) (2022-09-28T17:59:35Z) - Combating Noise: Semi-supervised Learning by Region Uncertainty
Quantification [55.23467274564417]
現在の手法は、擬似ラベルによって生成されるノイズの多い領域によって容易に妨げられる。
領域の不確実性を定量化して雑音耐性半教師付き学習を提案する。
PASCAL VOCとMS COCOの併用実験により,本手法の異常な性能を実証した。
論文 参考訳(メタデータ) (2021-11-01T13:23:42Z) - Label Noise in Adversarial Training: A Novel Perspective to Study Robust
Overfitting [45.58217741522973]
逆行訓練においてラベルノイズが存在することを示す。
このようなラベルノイズは、正反対例の真のラベル分布とクリーン例から受け継いだラベルとのミスマッチに起因する。
本稿では,ラベルノイズと頑健なオーバーフィッティングに対処するため,ラベルの自動校正手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T01:15:06Z) - Can Less be More? When Increasing-to-Balancing Label Noise Rates
Considered Beneficial [7.299247713124782]
特定のインスタンスのラベルノイズ率を増大させることによって導入されたトレードオフを定量化する。
本稿では,雑音ラベルを用いた学習にラベルノイズを挿入する手法を提案する。
論文 参考訳(メタデータ) (2021-07-13T08:31:57Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。