論文の概要: A Survey on Deep Learning with Noisy Labels: How to train your model
when you cannot trust on the annotations?
- arxiv url: http://arxiv.org/abs/2012.03061v1
- Date: Sat, 5 Dec 2020 15:45:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:12:13.435225
- Title: A Survey on Deep Learning with Noisy Labels: How to train your model
when you cannot trust on the annotations?
- Title(参考訳): Noisy Labelsによるディープラーニングに関する調査: アノテーションを信頼できないときにモデルをトレーニングする方法?
- Authors: Filipe R. Cordeiro and Gustavo Carneiro
- Abstract要約: ノイズラベルの存在下でのディープラーニングモデルのトレーニングを改善するために,いくつかのアプローチが提案されている。
本稿では,ロバストな損失,サンプル重み付け,サンプル選択,メタラーニング,組み合わせアプローチの3つのグループでアルゴリズムを分類する。
- 参考スコア(独自算出の注目度): 21.562089974755125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy Labels are commonly present in data sets automatically collected from
the internet, mislabeled by non-specialist annotators, or even specialists in a
challenging task, such as in the medical field. Although deep learning models
have shown significant improvements in different domains, an open issue is
their ability to memorize noisy labels during training, reducing their
generalization potential. As deep learning models depend on correctly labeled
data sets and label correctness is difficult to guarantee, it is crucial to
consider the presence of noisy labels for deep learning training. Several
approaches have been proposed in the literature to improve the training of deep
learning models in the presence of noisy labels. This paper presents a survey
on the main techniques in literature, in which we classify the algorithm in the
following groups: robust losses, sample weighting, sample selection,
meta-learning, and combined approaches. We also present the commonly used
experimental setup, data sets, and results of the state-of-the-art models.
- Abstract(参考訳): ノイズラベルは、インターネットから自動的に収集されるデータセットに一般的に存在し、非専門的な注釈者や医療分野のような困難なタスクの専門家によって誤ってラベル付けされる。
ディープラーニングモデルは、異なるドメインで大幅に改善されているが、オープンな問題は、トレーニング中にノイズの多いラベルを記憶し、一般化の可能性を減らすことだ。
ディープラーニングモデルは正しくラベル付けされたデータセットに依存しており、ラベルの正確性を保証するのが難しいため、ディープラーニングトレーニングにおいてノイズの多いラベルの存在を考慮することが重要である。
雑音ラベルの存在下でディープラーニングモデルのトレーニングを改善するためのいくつかのアプローチが文献に提案されている。
本稿では,ロバスト損失,サンプル重み付け,サンプル選択,メタラーニング,コンバインドアプローチという,アルゴリズムを分類する文献における主な手法に関する調査を行う。
また、一般に使われている実験装置、データセット、および最先端モデルの結果についても述べる。
関連論文リスト
- Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Unleashing the Potential of Regularization Strategies in Learning with
Noisy Labels [65.92994348757743]
クロスエントロピー損失を用いた単純なベースラインと、広く使われている正規化戦略を組み合わせることで、最先端の手法より優れていることを示す。
この結果から,正規化戦略の組み合わせは,ノイズラベルを用いた学習の課題に対処する上で,複雑なアルゴリズムよりも効果的であることが示唆された。
論文 参考訳(メタデータ) (2023-07-11T05:58:20Z) - MILD: Modeling the Instance Learning Dynamics for Learning with Noisy
Labels [19.650299232829546]
クリーンなデータを特定するために,Weibull混合モデルに基づく反復的選択手法を提案する。
特に、誤分類と暗記の間の遷移時間を通じて、各インスタンスの暗記の難しさを測定し、暗記する。
我々の戦略は既存の雑音ラベル学習方法より優れている。
論文 参考訳(メタデータ) (2023-06-20T14:26:53Z) - Learning with Noisy labels via Self-supervised Adversarial Noisy Masking [33.87292143223425]
対向雑音マスキングと呼ばれる新しいトレーニング手法を提案する。
入力データとラベルを同時に調整し、ノイズの多いサンプルが過度に収まらないようにする。
合成および実世界のノイズデータセットの両方でテストされる。
論文 参考訳(メタデータ) (2023-02-14T03:13:26Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Representation Learning for the Automatic Indexing of Sound Effects
Libraries [79.68916470119743]
タスク固有のがデータセットに依存しない表現は、クラス不均衡、一貫性のないクラスラベル、不十分なデータセットサイズなどのデータ問題にうまく対処できることを示す。
詳細な実験結果は、メトリック学習アプローチと異なるデータセット間の学習方法が表現効率に与える影響を示している。
論文 参考訳(メタデータ) (2022-08-18T23:46:13Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。