論文の概要: LNL+K: Enhancing Learning with Noisy Labels Through Noise Source Knowledge Integration
- arxiv url: http://arxiv.org/abs/2306.11911v2
- Date: Sat, 13 Jul 2024 14:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 05:08:47.343400
- Title: LNL+K: Enhancing Learning with Noisy Labels Through Noise Source Knowledge Integration
- Title(参考訳): LNL+K:ノイズソース知識統合によるノイズラベルによる学習の促進
- Authors: Siqi Wang, Bryan A. Plummer,
- Abstract要約: ノイズラベル(LNL)による学習は、ノイズデータセットを使用してハイパフォーマンスモデルをトレーニングすることを目的としている。
LNL法は,ノイズ源の知識の統合に適応しても,実世界のデータセットを一般化できないことを示す。
ノイズ源の知識を最先端LNLモデルに組み込むためのベースラインLNL+K法を提案する。
- 参考スコア(独自算出の注目度): 20.22659389346769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning with noisy labels (LNL) aims to train a high-performing model using a noisy dataset. We observe that noise for a given class often comes from a limited set of categories, yet many LNL methods overlook this. For example, an image mislabeled as a cheetah is more likely a leopard than a hippopotamus due to its visual similarity. Thus, we explore Learning with Noisy Labels with noise source Knowledge integration (LNL+K), which leverages knowledge about likely source(s) of label noise that is often provided in a dataset's meta-data. Integrating noise source knowledge boosts performance even in settings where LNL methods typically fail. For example, LNL+K methods are effective on datasets where noise represents the majority of samples, which breaks a critical premise of most methods developed for LNL. Our LNL+K methods can boost performance even when noise sources are estimated rather than extracted from meta-data. We provide several baseline LNL+K methods that integrate noise source knowledge into state-of-the-art LNL models that are evaluated across six diverse datasets and two types of noise, where we report gains of up to 23% compared to the unadapted methods. Critically, we show that LNL methods fail to generalize on some real-world datasets, even when adapted to integrate noise source knowledge, highlighting the importance of directly exploring LNL+K.
- Abstract(参考訳): ノイズラベル(LNL)による学習は、ノイズデータセットを使用してハイパフォーマンスモデルをトレーニングすることを目的としている。
与えられたクラスに対するノイズは、しばしば限られたカテゴリの集合から来るが、多くのLNLメソッドはこれを見落としている。
例えば、チーターと誤記された画像は、その視覚的類似性のため、海馬よりもヒョウである可能性が高い。
そこで,ノイズ源知識統合(LNL+K)を用いたノイズ源ラベル学習について検討する。
ノイズソースの知識を統合することで、LNLメソッドが通常失敗する設定でもパフォーマンスが向上する。
例えば、LNL+K法は、ノイズがほとんどのサンプルを表すデータセットで有効であり、LNLのために開発されたほとんどの手法の重要な前提を破る。
我々のLNL+K法は,メタデータから抽出するのではなく,ノイズ源を推定しても性能を向上させることができる。
ノイズ源の知識を最先端のLNLモデルに統合するベースラインLNL+K法を6つの多様なデータセットと2種類のノイズで評価し,未適応の手法と比較して最大23%のゲインを報告した。
本研究は,LNL+Kを直接探索することの重要性を強調し,騒音源の知識の統合に適応しても,LNL法が現実のデータセットを一般化できないことを示す。
関連論文リスト
- Denoising-Aware Contrastive Learning for Noisy Time Series [35.97130925600067]
時系列自己教師型学習(SSL)は、ラベルへの依存を軽減するために事前トレーニングのためにラベル付きデータを活用することを目的としている。
本稿では,表現中の雑音を軽減し,各サンプルに対して適切な復調法を自動選択するDenoising-Aware contrastive Learning (DECL)を提案する。
論文 参考訳(メタデータ) (2024-06-07T04:27:32Z) - DIDA: Denoised Imitation Learning based on Domain Adaptation [28.36684781402964]
ノイズのあるデータから学習するためには、模倣者が必要とされるLND(Learning from Noisy Demonstrations)の問題に焦点を当てる。
本稿では、雑音レベルと専門知識レベルを区別する2つの識別器を設計する、ドメイン適応(DIDA)に基づくDenoized Imitation Learningを提案する。
MuJoCoの実験結果は、DIDAが様々な種類のノイズを持つデモから挑戦的な模倣タスクをうまく処理できることを示した。
論文 参考訳(メタデータ) (2024-04-04T11:29:05Z) - Large Language Models are Efficient Learners of Noise-Robust Speech
Recognition [65.95847272465124]
大規模言語モデル(LLM)の最近の進歩は、自動音声認識(ASR)のための生成誤り訂正(GER)を促進している。
本研究では,このベンチマークをノイズの多い条件に拡張し,GERのデノナイジングをLLMに教えることができるかを検討する。
最新のLLM実験では,単語誤り率を最大53.9%改善し,新たなブレークスルーを実現している。
論文 参考訳(メタデータ) (2024-01-19T01:29:27Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - Instance-dependent Noisy-label Learning with Graphical Model Based Noise-rate Estimation [16.283722126438125]
ラベルノイズ学習(LNL)は、クリーンでノイズの多いラベルサンプルを区別するためにサンプル選択段階を組み込む。
このようなカリキュラムは、トレーニングセットの実際のラベルノイズ率を考慮していないため、準最適である。
本稿では,ほとんどのSOTA (State-of-the-art) LNL法と容易に統合できる新しいノイズレート推定法を用いて,この問題に対処する。
論文 参考訳(メタデータ) (2023-05-31T01:46:14Z) - NoisywikiHow: A Benchmark for Learning with Real-world Noisy Labels in
Natural Language Processing [26.678589684142548]
実世界の大規模なデータセットには、必然的にラベルノイズが伴う。
ディープモデルはノイズの多いラベルに徐々に適合し、一般化性能を低下させる。
ラベルノイズの影響を軽減するため,雑音ラベル法(LNL)による学習は,より優れた一般化性能を実現するために設計されている。
論文 参考訳(メタデータ) (2023-05-18T05:01:04Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Multi-class Label Noise Learning via Loss Decomposition and Centroid
Estimation [25.098485298561155]
ロス分解とセントロイド推定(LDCE)のための新しい多クラス頑健な学習法を提案する。
具体的には、一般に採用されている損失関数をラベル依存部分とラベル非依存部分に分解する。
新しいデータセントロイドの定義により,ラベル依存部分の回復問題をセントロイド推定問題に変換する。
論文 参考訳(メタデータ) (2022-03-21T10:28:50Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Learning from Multiple Noisy Augmented Data Sets for Better
Cross-Lingual Spoken Language Understanding [69.40915115518523]
トレーニングデータの欠如は、低リソース言語への音声言語理解(SLU)をスケールアウトする上で大きな課題となる。
低リソースターゲット言語でのトレーニングデータを合成するために、様々なデータ拡張手法が提案されている。
本稿では,拡張データにおけるノイズの軽減に焦点をあてる。
論文 参考訳(メタデータ) (2021-09-03T15:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。