論文の概要: Noise-Robust Bidirectional Learning with Dynamic Sample Reweighting
- arxiv url: http://arxiv.org/abs/2209.01334v1
- Date: Sat, 3 Sep 2022 06:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:38:08.184003
- Title: Noise-Robust Bidirectional Learning with Dynamic Sample Reweighting
- Title(参考訳): 動的サンプル重み付けによるノイズロバスト双方向学習
- Authors: Chen-Chen Zong, Zheng-Tao Cao, Hong-Tao Guo, Yun Du, Ming-Kun Xie,
Shao-Yuan Li, and Sheng-Jun Huang
- Abstract要約: 標準のクロスエントロピー損失でトレーニングされたディープニューラルネットワークは、ノイズの多いラベルの傾向が強い。
相補ラベルを用いた負の学習は、ノイズラベルが介入する場合はより堅牢であるが、非常に遅いモデル収束速度を持つ。
本稿では、まず、正の学習が収束速度を保証し、負の学習がラベルノイズに頑健に対処する双方向学習方式を提案する。
- 参考スコア(独自算出の注目度): 28.493837430606117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks trained with standard cross-entropy loss are more prone
to memorize noisy labels, which degrades their performance. Negative learning
using complementary labels is more robust when noisy labels intervene but with
an extremely slow model convergence speed. In this paper, we first introduce a
bidirectional learning scheme, where positive learning ensures convergence
speed while negative learning robustly copes with label noise. Further, a
dynamic sample reweighting strategy is proposed to globally weaken the effect
of noise-labeled samples by exploiting the excellent discriminatory ability of
negative learning on the sample probability distribution. In addition, we
combine self-distillation to further improve the model performance. The code is
available at \url{https://github.com/chenchenzong/BLDR}.
- Abstract(参考訳): 標準のクロスエントロピー損失でトレーニングされたディープニューラルネットワークは、ノイズラベルを記憶する傾向が強く、パフォーマンスが低下する。
相補ラベルを用いた負の学習は、ノイズラベルが介入する場合はより堅牢であるが、非常に遅いモデル収束速度を持つ。
本稿では,正の学習が収束速度を保証し,負の学習がラベルノイズに頑健に対処する双方向学習方式を提案する。
さらに,標本確率分布に負学習の優れた判別能力を利用することで,ノイズラベル標本の効果をグローバルに弱めるための動的サンプル重み付け戦略を提案する。
さらに, 自己蒸留を組み合わせることで, モデル性能をさらに向上させる。
コードは \url{https://github.com/chenchenzong/bldr} で入手できる。
関連論文リスト
- Mitigating Noisy Supervision Using Synthetic Samples with Soft Labels [13.314778587751588]
ノイズラベルは、特にクラウドソーシングやWeb検索から派生した大規模データセットにおいて、現実世界のデータセットにおいてユビキタスである。
トレーニング中にノイズの多いラベルを過度に適合させる傾向にあるため、ノイズの多いデータセットでディープニューラルネットワークをトレーニングすることは難しい。
ノイズラベルの影響を軽減するために,新しい合成サンプルを用いてモデルを訓練するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-22T04:49:39Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Multi-Objective Interpolation Training for Robustness to Label Noise [17.264550056296915]
標準教師付きコントラスト学習はラベル雑音の存在下で劣化することを示す。
コントラスト学習により学習したロバストな特徴表現を利用する新しいラベルノイズ検出手法を提案する。
合成および実世界のノイズベンチマークの実験は、MOIT/MOIT+が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2020-12-08T15:01:54Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。