論文の概要: Mitigating the Impact of Labeling Errors on Training via Rockafellian Relaxation
- arxiv url: http://arxiv.org/abs/2405.20531v2
- Date: Fri, 14 Feb 2025 22:48:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:04:02.817705
- Title: Mitigating the Impact of Labeling Errors on Training via Rockafellian Relaxation
- Title(参考訳): ロカフェル緩和によるトレーニングにおけるラベル誤りの影響について
- Authors: Louis L. Chen, Bobbie Chern, Eric Eckstrand, Amogh Mahapatra, Johannes O. Royset,
- Abstract要約: ニューラルネットワークトレーニングのための新しい損失軽減手法であるRockafellian Relaxation Method (RRM)を提案する。
RRMは、コンピュータビジョンと自然言語処理における分類タスクにおける堅牢な性能を達成するために、ニューラルネットワーク手法を強化することができることを示す実験(感覚分析)
RRMは、ラベル付けエラーと/または敵対的摂動の両方から生じるデータセット汚染の影響を緩和し、さまざまなデータドメインと機械学習タスクで有効性を示すことができる。
- 参考スコア(独自算出の注目度): 0.8741284539870512
- License:
- Abstract: Labeling errors in datasets are common, arising in a variety of contexts, such as human labeling, noisy labeling, and weak labeling (i.e., image classification). Although neural networks (NNs) can tolerate modest amounts of these errors, their performance degrades substantially once error levels exceed a certain threshold. We propose a new loss reweighting, architecture-independent methodology, Rockafellian Relaxation Method (RRM) for neural network training. Experiments indicate RRM can enhance neural network methods to achieve robust performance across classification tasks in computer vision and natural language processing (sentiment analysis). We find that RRM can mitigate the effects of dataset contamination stemming from both (heavy) labeling error and/or adversarial perturbation, demonstrating effectiveness across a variety of data domains and machine learning tasks.
- Abstract(参考訳): データセットのラベル付けエラーは一般的であり、人間のラベル付け、ノイズラベル付け、弱いラベル付け(画像分類)など、さまざまな文脈で発生する。
ニューラルネットワーク(NN)は、これらのエラーの質素な量を許容するが、エラーレベルが一定の閾値を超えると、パフォーマンスは大幅に低下する。
ニューラルネットワークトレーニングのための新しい損失軽減手法であるRockafellian Relaxation Method (RRM)を提案する。
実験により、RRMはコンピュータビジョンや自然言語処理(センチメント分析)において、分類タスク間の堅牢なパフォーマンスを達成するためにニューラルネットワーク手法を強化することができることが示された。
RRMは、ラベル付けエラーと/または敵対的摂動の両方から生じるデータセット汚染の影響を緩和し、さまざまなデータドメインと機械学習タスクで有効性を示すことができる。
関連論文リスト
- Robust Loss Functions for Object Grasping under Limited Ground Truth [3.794161613920474]
畳み込みニューラルネットワークをトレーニングしている間、欠落した、あるいは騒々しい真実に対処します。
未ラベル標本に対して,新たに予測されたカテゴリ確率法が定義される。
ノイズの多い基底事実に対しては、ラベルノイズの破損に抵抗する対称損失関数が導入された。
論文 参考訳(メタデータ) (2024-09-09T15:56:34Z) - ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Error Sensitivity Modulation based Experience Replay: Mitigating Abrupt
Representation Drift in Continual Learning [13.041607703862724]
本稿では,デュアルメモリリハーサルシステムにおけるエラー感度を変調する原理的機構を用いたESMERを提案する。
ESMERは、知識を集約しながら、新しいタスクに徐々に適応することにより、タスク境界における表現の忘れと突然のドリフトを効果的に低減する。
注目すべきは、実世界のデータストリームでユビキタスであるラベルノイズの高レベル下での学習を可能にすることだ。
論文 参考訳(メタデータ) (2023-02-14T16:35:54Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Investigation of Training Label Error Impact on RNN-T [8.470599402385302]
我々は、RNN-TベースのASRモデルに対する異なるトレーニングラベル誤差の影響を分析する。
削除ラベルエラーの低減を優先して,RNN-Tのデータパイプラインの設計を提案する。
論文 参考訳(メタデータ) (2021-12-01T08:57:39Z) - An Introduction to Robust Graph Convolutional Networks [71.68610791161355]
本論文では, 誤りのある単一ビューあるいは複数ビューのデータに対して, 新たなロバストグラフ畳み込みニューラルネットワークを提案する。
従来のグラフ畳み込みネットワークにAutoencodersを介して余分なレイヤを組み込むことで、典型的なエラーモデルを明示的に特徴付けおよび処理します。
論文 参考訳(メタデータ) (2021-03-27T04:47:59Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z) - Understanding and Diagnosing Vulnerability under Adversarial Attacks [62.661498155101654]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,潜在変数の分類に使用される特徴を説明するために,新しい解釈可能性手法であるInterpretGANを提案する。
また、各層がもたらす脆弱性を定量化する最初の診断方法も設計する。
論文 参考訳(メタデータ) (2020-07-17T01:56:28Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。