論文の概要: Robust Feature Learning Against Noisy Labels
- arxiv url: http://arxiv.org/abs/2307.04312v1
- Date: Mon, 10 Jul 2023 02:55:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 14:20:55.738681
- Title: Robust Feature Learning Against Noisy Labels
- Title(参考訳): 雑音ラベルに対するロバスト特徴学習
- Authors: Tsung-Ming Tai, Yun-Jie Jhang, Wen-Jyi Hwang
- Abstract要約: ミスラベルされたサンプルはモデルの一般化を著しく低下させることができる。
ノイズラベルによる監督の負の影響を最小限に抑えるために、プログレッシブな自己ブートストラッピングが導入される。
実験結果から,本手法は強騒音ラベル下でモデルロバスト性を効果的かつ効果的に向上できることが示唆された。
- 参考スコア(独自算出の注目度): 0.2082426271304908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised learning of deep neural networks heavily relies on large-scale
datasets annotated by high-quality labels. In contrast, mislabeled samples can
significantly degrade the generalization of models and result in memorizing
samples, further learning erroneous associations of data contents to incorrect
annotations. To this end, this paper proposes an efficient approach to tackle
noisy labels by learning robust feature representation based on unsupervised
augmentation restoration and cluster regularization. In addition, progressive
self-bootstrapping is introduced to minimize the negative impact of supervision
from noisy labels. Our proposed design is generic and flexible in applying to
existing classification architectures with minimal overheads. Experimental
results show that our proposed method can efficiently and effectively enhance
model robustness under severely noisy labels.
- Abstract(参考訳): ディープニューラルネットワークの教師付き学習は、高品質のラベルに注釈づけされた大規模データセットに大きく依存する。
対照的に、誤ラベルされたサンプルはモデルの一般化を著しく低下させ、結果としてサンプルを記憶し、データ内容の誤関連を誤ったアノテーションに学習する。
そこで本稿では,教師なし拡張復元とクラスタ正規化に基づくロバストな特徴表現を学習することで,雑音ラベルに対処する効率的な手法を提案する。
さらに、ノイズラベルによる監督の負の影響を最小限に抑えるために、プログレッシブセルフブートストラッピングを導入する。
提案する設計は, 最小限のオーバーヘッドで既存の分類アーキテクチャに適用可能な汎用設計である。
提案手法は,重騒音ラベルのモデルロバスト性が効果的かつ効果的に向上することを示す。
関連論文リスト
- ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Analyze the Robustness of Classifiers under Label Noise [5.708964539699851]
教師付き学習におけるラベルノイズは、誤ったラベルまたは不正確なラベルによって特徴づけられ、モデル性能を著しく損なう。
本研究は, ラベルノイズが実用的応用に与える影響について, ますます関連する問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-12T13:51:25Z) - Learning with Noisy labels via Self-supervised Adversarial Noisy Masking [33.87292143223425]
対向雑音マスキングと呼ばれる新しいトレーニング手法を提案する。
入力データとラベルを同時に調整し、ノイズの多いサンプルが過度に収まらないようにする。
合成および実世界のノイズデータセットの両方でテストされる。
論文 参考訳(メタデータ) (2023-02-14T03:13:26Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - Learning with Noisy Labels by Targeted Relabeling [52.0329205268734]
クラウドソーシングプラットフォームは、ディープニューラルネットワークをトレーニングするためのデータセット収集によく使用される。
本稿では,少数のアノテーションを予約して,高い確率でラベル付け可能なエラーを明示的に緩和する手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T20:37:29Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。