論文の概要: Enhanced Meta Label Correction for Coping with Label Corruption
- arxiv url: http://arxiv.org/abs/2305.12961v1
- Date: Mon, 22 May 2023 12:11:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 16:23:41.234538
- Title: Enhanced Meta Label Correction for Coping with Label Corruption
- Title(参考訳): ラベル破壊対応のためのメタラベル補正の強化
- Authors: Mitchell Keren Taraday, Chaim Baskin
- Abstract要約: 本稿では,雑音ラベル問題を用いた学習のための拡張メタラベル補正手法を提案する。
TraditionalCは従来のアプローチより優れており、すべての標準ベンチマークで最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Traditional methods for learning with the presence of noisy labels have
successfully handled datasets with artificially injected noise but still fall
short of adequately handling real-world noise. With the increasing use of
meta-learning in the diverse fields of machine learning, researchers leveraged
auxiliary small clean datasets to meta-correct the training labels.
Nonetheless, existing meta-label correction approaches are not fully exploiting
their potential. In this study, we propose an Enhanced Meta Label Correction
approach abbreviated as EMLC for the learning with noisy labels (LNL) problem.
We re-examine the meta-learning process and introduce faster and more accurate
meta-gradient derivations. We propose a novel teacher architecture tailored
explicitly to the LNL problem, equipped with novel training objectives. EMLC
outperforms prior approaches and achieves state-of-the-art results in all
standard benchmarks. Notably, EMLC enhances the previous art on the noisy
real-world dataset Clothing1M by $1.52\%$ while requiring $\times 0.5$ the time
per epoch and with much faster convergence of the meta-objective when compared
to the baseline approach.
- Abstract(参考訳): ノイズラベルのある従来の学習方法は、人工的に注入されたノイズを伴うデータセットをうまく扱ったが、それでも現実世界のノイズを適切に扱えない。
機械学習のさまざまな分野におけるメタラーニングの利用の増加に伴い、研究者は補助的な小さなクリーンデータセットを利用してトレーニングラベルをメタ補正した。
それでも、既存のメタラベル補正アプローチは、その潜在能力を十分に活用していない。
本研究では,雑音ラベル(LNL)問題に対するEMLCと略される拡張メタラベル補正手法を提案する。
メタ学習プロセスを再検討し、より高速で正確なメタ段階の導出を導入する。
本稿では,LNL問題に特化して,新たな学習目標を備えた新しい教員アーキテクチャを提案する。
EMLCは従来の手法より優れており、すべての標準ベンチマークで最先端の結果が得られる。
特に、EMLCは、ノイズの多い実世界のデータセットであるClothing1Mを1.52 %$で拡張し、エポック毎の0.5ドルの時間を必要とし、ベースラインアプローチと比較してメタオブジェクトの収束がはるかに速い。
関連論文リスト
- BatMan-CLR: Making Few-shots Meta-Learners Resilient Against Label Noise [5.67944073225624]
本稿では,ラベルノイズのレベル変化がメタラーナーの性能に及ぼす影響を初めて解析する。
メタトレーニングがラベルノイズの影響を受ければ,OmniglotおよびCifarFSデータセット上でReptile,iMAML,foMAMLの精度が最大42%低下することを示す。
そこで本研究では,ノイズの多い教師付き学習者から半教師付き学習者へ変換する2つのサンプリング手法,すなわち,多様体(Man)とバッチ多様体(BatMan)を提案する。
論文 参考訳(メタデータ) (2023-09-12T08:30:35Z) - DAC-MR: Data Augmentation Consistency Based Meta-Regularization for
Meta-Learning [55.733193075728096]
メタ学習を改善するメタ知識情報メタラーニング(MKIML)フレームワークを提案する。
適切なメタレギュラー化(MR)目標を用いて,メタ知識をメタオブジェクトに統合する。
提案したDAC-MRは、ノイズ、スパース、あるいは利用できないメタデータのトレーニングタスクから、良好なパフォーマンスのメタモデルを学ぶことを期待している。
論文 参考訳(メタデータ) (2023-05-13T11:01:47Z) - Faster Meta Update Strategy for Noise-Robust Deep Learning [62.08964100618873]
我々は,メタグラデーションの最も高価なステップをより高速なレイヤワイズ近似に置き換えるために,新しいファMUS(Faster Meta Update Strategy)を導入する。
本手法は,同等あるいはさらに優れた一般化性能を維持しつつ,トレーニング時間の3分の2を節約できることを示す。
論文 参考訳(メタデータ) (2021-04-30T16:19:07Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - Learning to Purify Noisy Labels via Meta Soft Label Corrector [49.92310583232323]
最近のディープニューラルネットワーク(DNN)は、ノイズラベルによるバイアス付きトレーニングデータに容易に適合する。
ラベル修正戦略はこの問題を軽減するために一般的に用いられる。
メタ学習モデルを提案する。
論文 参考訳(メタデータ) (2020-08-03T03:25:17Z) - Meta Soft Label Generation for Noisy Labels [0.0]
我々はMSLGと呼ばれるメタソフトラベル生成アルゴリズムを提案する。
MSLGはメタラーニング技術を用いてソフトラベルを共同で生成できる。
我々の手法は、他の最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-07-11T19:37:44Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z) - Meta-Semi: A Meta-learning Approach for Semi-supervised Learning [43.218180383591196]
メタラーニングに基づく新しいSSLアルゴリズム(Meta-Semi)を提案する。
本稿では,Meta-Semiが軽度条件下でラベル付きデータ上で損失関数の定常点に収束することを示す。
Meta-Semiは、CIFAR-100とSTL-10の課題に対して、最先端のSSLアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-07-05T17:31:14Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。