論文の概要: CLID-MU: Cross-Layer Information Divergence Based Meta Update Strategy for Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2507.11807v1
- Date: Wed, 16 Jul 2025 00:03:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.185146
- Title: CLID-MU: Cross-Layer Information Divergence Based Meta Update Strategy for Learning with Noisy Labels
- Title(参考訳): CLID-MU: ノイズラベルを用いた学習のための多層情報ダイバージェンスに基づくメタ更新戦略
- Authors: Ruofan Hu, Dongyu Zhang, Huayi Zhang, Elke Rundensteiner,
- Abstract要約: クリーンなラベル付きデータセットに頼ることなく、ノイズの多いラベルシナリオのメタ学習に取り組む。
我々は多層情報分散型メタ更新戦略(CLID-MU)を設計する。
CLID-MUが最先端の手法より優れていることを示すのは、合成ノイズと実世界のノイズの両方の下で様々なラベルを持つベンチマークデータセットの実験である。
- 参考スコア(独自算出の注目度): 5.902281427799682
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning with noisy labels (LNL) is essential for training deep neural networks with imperfect data. Meta-learning approaches have achieved success by using a clean unbiased labeled set to train a robust model. However, this approach heavily depends on the availability of a clean labeled meta-dataset, which is difficult to obtain in practice. In this work, we thus tackle the challenge of meta-learning for noisy label scenarios without relying on a clean labeled dataset. Our approach leverages the data itself while bypassing the need for labels. Building on the insight that clean samples effectively preserve the consistency of related data structures across the last hidden and the final layer, whereas noisy samples disrupt this consistency, we design the Cross-layer Information Divergence-based Meta Update Strategy (CLID-MU). CLID-MU leverages the alignment of data structures across these diverse feature spaces to evaluate model performance and use this alignment to guide training. Experiments on benchmark datasets with varying amounts of labels under both synthetic and real-world noise demonstrate that CLID-MU outperforms state-of-the-art methods. The code is released at https://github.com/ruofanhu/CLID-MU.
- Abstract(参考訳): ノイズラベル(LNL)による学習は、不完全なデータによるディープニューラルネットワークのトレーニングに不可欠である。
メタラーニングアプローチは、クリーンでバイアスのないラベル付きセットを使用して堅牢なモデルをトレーニングすることで成功しました。
しかし、このアプローチは、実際に入手するのが困難であるクリーンなラベル付きメタデータの可用性に大きく依存する。
そこで本研究では,クリーンなラベル付きデータセットを使わずに,ノイズの多いラベルシナリオに対するメタ学習の課題に取り組む。
当社のアプローチでは,ラベルの必要性を回避しながら,データ自体を活用しています。
クリーンなサンプルが最後の隠蔽層と最終層にまたがる関連データ構造の一貫性を効果的に維持するという知見に基づいて、ノイズの多いサンプルがこの一貫性を阻害するのに対して、クロスレイヤ情報分散に基づくメタ更新戦略(CLID-MU)を設計する。
CLID-MUは、これらの多様な特徴空間にまたがるデータ構造のアライメントを活用して、モデルパフォーマンスを評価し、トレーニングをガイドするためにこのアライメントを使用する。
CLID-MUが最先端の手法より優れていることを示すのは、合成ノイズと実世界のノイズの両方の下で様々なラベルを持つベンチマークデータセットの実験である。
コードはhttps://github.com/ruofanhu/CLID-MUで公開されている。
関連論文リスト
- Enhancing Sample Utilization in Noise-Robust Deep Metric Learning With Subgroup-Based Positive-Pair Selection [84.78475642696137]
実世界のデータにノイズラベルが存在することは、ディープラーニングモデルの性能に悪影響を及ぼす。
サブグループに基づく正対選択(SGPS)を用いたノイズロストDMLフレームワークを提案する。
SGPSは、ノイズのあるサンプルに対して信頼性の高い正のペアを構築し、サンプルの利用率を高める。
論文 参考訳(メタデータ) (2025-01-19T14:41:55Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Dynamic Loss For Robust Learning [17.33444812274523]
本研究は,メタラーニングに基づく動的損失を学習プロセスで自動調整し,長い尾の雑音データから分類器を頑健に学習する手法を提案する。
本研究では,CIFAR-10/100,Animal-10N,ImageNet-LT,Webvisionなど,さまざまな種類のデータバイアスを持つ複数の実世界および合成データセットに対して,最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-11-22T01:48:25Z) - Pseudo-Labeling Based Practical Semi-Supervised Meta-Training for Few-Shot Learning [93.63638405586354]
擬似ラベルベースメタラーニング(PLML)という,シンプルで効果的なメタトレーニングフレームワークを提案する。
まず、一般的な半教師付き学習(SSL)を用いて分類器を訓練し、ラベルなしデータの擬似ラベルを得る。
ラベル付きおよび擬似ラベル付きデータから数ショットのタスクを構築し、特徴の平滑化と雑音抑圧を伴う新しい微調整法を設計する。
論文 参考訳(メタデータ) (2022-07-14T10:53:53Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - Robust Meta-learning with Sampling Noise and Label Noise via
Eigen-Reptile [78.1212767880785]
Meta-learnerは、利用可能なサンプルがわずかしかないため、過度に適合する傾向がある。
ノイズの多いラベルでデータを扱う場合、メタラーナーはラベルノイズに対して非常に敏感になる可能性がある。
本稿では,タスク固有のパラメータの主要な方向でメタパラメータを更新するEigen-Reptile(ER)を提案する。
論文 参考訳(メタデータ) (2022-06-04T08:48:02Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - MetaLabelNet: Learning to Generate Soft-Labels from Noisy-Labels [0.20305676256390928]
現実世界のデータセットはノイズの多いラベルを持ち、ディープニューラルネットワーク(dnn)のパフォーマンスに悪影響を及ぼす。
本稿では,ベース分類器を,メタ目的に応じて生成するソフトラベル上で学習するラベル雑音ロバスト学習アルゴリズムを提案する。
我々のアルゴリズムは、少量のクリーンデータをメタデータとして使用し、多くのケースで無益に取得できる。
論文 参考訳(メタデータ) (2021-03-19T15:47:44Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z) - Meta Soft Label Generation for Noisy Labels [0.0]
我々はMSLGと呼ばれるメタソフトラベル生成アルゴリズムを提案する。
MSLGはメタラーニング技術を用いてソフトラベルを共同で生成できる。
我々の手法は、他の最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-07-11T19:37:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。