論文の概要: LNL+K: Learning with Noisy Labels and Noise Source Distribution
Knowledge
- arxiv url: http://arxiv.org/abs/2306.11911v1
- Date: Tue, 20 Jun 2023 21:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 15:36:36.394431
- Title: LNL+K: Learning with Noisy Labels and Noise Source Distribution
Knowledge
- Title(参考訳): LNL+K:雑音ラベルによる学習と音源分布知識
- Authors: Siqi Wang and Bryan A. Plummer
- Abstract要約: 雑音ラベルと雑音源分布知識(LNL+K)を用いた学習という新しいタスクを導入する。
このタスクは、私たちが活用できるラベルノイズの可能性のあるソースについて、いくつかの知識を持っていると仮定します。
ノイズ源の知識を最先端のLNL手法に統合する,ベースラインLNL+Kアプローチについて検討する。
- 参考スコア(独自算出の注目度): 14.326379801607246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning with noisy labels (LNL) is challenging as the model tends to
memorize noisy labels, which can lead to overfitting. Many LNL methods detect
clean samples by maximizing the similarity between samples in each category,
which does not make any assumptions about likely noise sources. However, we
often have some knowledge about the potential source(s) of noisy labels. For
example, an image mislabeled as a cheetah is more likely a leopard than a
hippopotamus due to their visual similarity. Thus, we introduce a new task
called Learning with Noisy Labels and noise source distribution Knowledge
(LNL+K), which assumes we have some knowledge about likely source(s) of label
noise that we can take advantage of. By making this presumption, methods are
better equipped to distinguish hard negatives between categories from label
noise. In addition, this enables us to explore datasets where the noise may
represent the majority of samples, a setting that breaks a critical premise of
most methods developed for the LNL task. We explore several baseline LNL+K
approaches that integrate noise source knowledge into state-of-the-art LNL
methods across three diverse datasets and three types of noise, where we report
a 5-15% boost in performance compared with the unadapted methods. Critically,
we find that LNL methods do not generalize well in every setting, highlighting
the importance of directly exploring our LNL+K task.
- Abstract(参考訳): ノイズラベル(LNL)を用いた学習は、モデルがノイズラベルを記憶する傾向があるため、過度に適合する可能性があるため、難しい。
多くのLNL法は各カテゴリのサンプル間の類似性を最大化することでクリーンサンプルを検出するが、ノイズ源の仮定は一切ない。
しかし、ノイズラベルの潜在的な情報源については、しばしばある程度の知識がある。
例えば、チーターと誤記された画像は、視覚的類似性から海馬よりもヒョウである可能性が高い。
そこで我々は,LNL+K(Learning with Noisy Labels and noise source distribution Knowledge)と呼ばれる新しいタスクを導入する。
この推定を行うことで、ラベルノイズとカテゴリ間のハードネガティブを区別する手法がより優れている。
さらに、LNLタスクのために開発されたほとんどのメソッドの重要な前提を破る設定である、ほとんどのサンプルをノイズが表現できるデータセットを探索することができる。
本研究では,ノイズ源の知識を3種類のデータセットと3種類のノイズにまたがって最先端の lnl 法に統合するベースライン lnl+k 法について検討し,非適応法と比較して5~15%の性能向上を報告した。
批判的に、LNL法はすべての設定においてうまく一般化せず、LNL+Kタスクを直接探索することの重要性を強調している。
関連論文リスト
- Denoising-Aware Contrastive Learning for Noisy Time Series [35.97130925600067]
時系列自己教師型学習(SSL)は、ラベルへの依存を軽減するために事前トレーニングのためにラベル付きデータを活用することを目的としている。
本稿では,表現中の雑音を軽減し,各サンプルに対して適切な復調法を自動選択するDenoising-Aware contrastive Learning (DECL)を提案する。
論文 参考訳(メタデータ) (2024-06-07T04:27:32Z) - DIDA: Denoised Imitation Learning based on Domain Adaptation [28.36684781402964]
ノイズのあるデータから学習するためには、模倣者が必要とされるLND(Learning from Noisy Demonstrations)の問題に焦点を当てる。
本稿では、雑音レベルと専門知識レベルを区別する2つの識別器を設計する、ドメイン適応(DIDA)に基づくDenoized Imitation Learningを提案する。
MuJoCoの実験結果は、DIDAが様々な種類のノイズを持つデモから挑戦的な模倣タスクをうまく処理できることを示した。
論文 参考訳(メタデータ) (2024-04-04T11:29:05Z) - Large Language Models are Efficient Learners of Noise-Robust Speech
Recognition [65.95847272465124]
大規模言語モデル(LLM)の最近の進歩は、自動音声認識(ASR)のための生成誤り訂正(GER)を促進している。
本研究では,このベンチマークをノイズの多い条件に拡張し,GERのデノナイジングをLLMに教えることができるかを検討する。
最新のLLM実験では,単語誤り率を最大53.9%改善し,新たなブレークスルーを実現している。
論文 参考訳(メタデータ) (2024-01-19T01:29:27Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - Instance-dependent Noisy-label Learning with Graphical Model Based Noise-rate Estimation [16.283722126438125]
ラベルノイズ学習(LNL)は、クリーンでノイズの多いラベルサンプルを区別するためにサンプル選択段階を組み込む。
このようなカリキュラムは、トレーニングセットの実際のラベルノイズ率を考慮していないため、準最適である。
本稿では,ほとんどのSOTA (State-of-the-art) LNL法と容易に統合できる新しいノイズレート推定法を用いて,この問題に対処する。
論文 参考訳(メタデータ) (2023-05-31T01:46:14Z) - NoisywikiHow: A Benchmark for Learning with Real-world Noisy Labels in
Natural Language Processing [26.678589684142548]
実世界の大規模なデータセットには、必然的にラベルノイズが伴う。
ディープモデルはノイズの多いラベルに徐々に適合し、一般化性能を低下させる。
ラベルノイズの影響を軽減するため,雑音ラベル法(LNL)による学習は,より優れた一般化性能を実現するために設計されている。
論文 参考訳(メタデータ) (2023-05-18T05:01:04Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Multi-class Label Noise Learning via Loss Decomposition and Centroid
Estimation [25.098485298561155]
ロス分解とセントロイド推定(LDCE)のための新しい多クラス頑健な学習法を提案する。
具体的には、一般に採用されている損失関数をラベル依存部分とラベル非依存部分に分解する。
新しいデータセントロイドの定義により,ラベル依存部分の回復問題をセントロイド推定問題に変換する。
論文 参考訳(メタデータ) (2022-03-21T10:28:50Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Learning from Multiple Noisy Augmented Data Sets for Better
Cross-Lingual Spoken Language Understanding [69.40915115518523]
トレーニングデータの欠如は、低リソース言語への音声言語理解(SLU)をスケールアウトする上で大きな課題となる。
低リソースターゲット言語でのトレーニングデータを合成するために、様々なデータ拡張手法が提案されている。
本稿では,拡張データにおけるノイズの軽減に焦点をあてる。
論文 参考訳(メタデータ) (2021-09-03T15:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。