論文の概要: Combating noisy labels by agreement: A joint training method with
co-regularization
- arxiv url: http://arxiv.org/abs/2003.02752v3
- Date: Wed, 22 Apr 2020 17:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:14:27.469713
- Title: Combating noisy labels by agreement: A joint training method with
co-regularization
- Title(参考訳): 合意による雑音ラベルの圧縮:協調正規化による共同学習法
- Authors: Hongxin Wei, Lei Feng, Xiangyu Chen, Bo An
- Abstract要約: トレーニング中の2つのネットワークの多様性を低減することを目的とした,JoCoRと呼ばれる堅牢な学習パラダイムを提案する。
ノイズラベルを用いた学習において,JoCoRは最先端の多くのアプローチよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 27.578738673827658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning with noisy labels is a practically challenging problem in
weakly supervised learning. The state-of-the-art approaches "Decoupling" and
"Co-teaching+" claim that the "disagreement" strategy is crucial for
alleviating the problem of learning with noisy labels. In this paper, we start
from a different perspective and propose a robust learning paradigm called
JoCoR, which aims to reduce the diversity of two networks during training.
Specifically, we first use two networks to make predictions on the same
mini-batch data and calculate a joint loss with Co-Regularization for each
training example. Then we select small-loss examples to update the parameters
of both two networks simultaneously. Trained by the joint loss, these two
networks would be more and more similar due to the effect of Co-Regularization.
Extensive experimental results on corrupted data from benchmark datasets
including MNIST, CIFAR-10, CIFAR-100 and Clothing1M demonstrate that JoCoR is
superior to many state-of-the-art approaches for learning with noisy labels.
- Abstract(参考訳): 雑音ラベルによるディープラーニングは、弱い教師付き学習において事実上難しい問題である。
最先端のアプローチである"decoupling"と"co-teaching+"は、"disagreement"戦略はノイズの多いラベルで学習する問題を緩和するために不可欠であると主張している。
本稿では,異なる視点から始めて,トレーニング中の2つのネットワークの多様性を減らすことを目的とした,jocorと呼ばれる堅牢な学習パラダイムを提案する。
具体的には、まず2つのネットワークを用いて、同一のミニバッチデータに基づいて予測を行い、トレーニング例ごとに協調正規化による共同損失を算出する。
次に,2つのネットワークのパラメータを同時に更新するために,小さな例を選択する。
合同損失によって訓練されたこれらの2つのネットワークは、共規則化の影響により、ますます類似している。
MNIST, CIFAR-10, CIFAR-100, CIFAR-100, Clothing1Mといったベンチマークデータセットの破損したデータに対する大規模な実験結果から, JoCoRはノイズラベルによる学習における最先端のアプローチよりも優れていることが示された。
関連論文リスト
- AsyCo: An Asymmetric Dual-task Co-training Model for Partial-label Learning [53.97072488455662]
自己学習モデルは、最先端のパフォーマンスを実現するが、誤って曖昧なインスタンスによって生じるエラーの蓄積問題に悩まされる。
本稿では,2つのネットワーク,すなわち曖昧なネットワークと補助的なネットワークに,異なる視点から明確に学習するよう強制する,AsyCoという非対称なデュアルタスク協調学習モデルを提案する。
AsyCoの有効性を実証するため、一様および一様にラベル付けされた部分ラベル付きデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-07-21T02:08:51Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - CrossSplit: Mitigating Label Noise Memorization through Data Splitting [25.344386272010397]
そこで我々はCrossSplitと呼ばれるノイズラベルの記憶を緩和するための新しいトレーニング手法を提案する。
CIFAR-10, CIFAR-100, Tiny-ImageNet, およびmini-WebVisionデータセットを用いた実験により, 本手法は幅広いノイズ比において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-03T19:09:56Z) - Agreement or Disagreement in Noise-tolerant Mutual Learning? [9.890478302701315]
本稿では,MLCという耐雑音性フレームワークをエンドツーエンドに提案する。
二重ネットワークを分岐正則化で調整し、機構の有効性を保証する。
提案手法は,ノイズデータを用いてネットワークの精度,一般化,堅牢性を向上させる。
論文 参考訳(メタデータ) (2022-03-29T08:00:51Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - CoMatch: Semi-supervised Learning with Contrastive Graph Regularization [86.84486065798735]
CoMatchは、支配的なアプローチを統一する、新しい半教師付き学習手法である。
複数のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-11-23T02:54:57Z) - Un-Mix: Rethinking Image Mixtures for Unsupervised Visual Representation
Learning [108.999497144296]
近年の先進的な教師なし学習手法では,同じ画像から2つの「ビュー」を学習表現として比較するために,サイムズ様の枠組みを用いている。
この研究は、教師なし学習においてラベル空間上の距離の概念を巻き込み、正対と負対のソフトな類似度をモデルに認識させることを目的としている。
その概念的単純さにもかかわらず、この解 -- 教師なし画像混合(Un-Mix)により、変換された入力と対応する新しいラベル空間からより微妙でより堅牢で一般化された表現を学習できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-11T17:59:04Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。