論文の概要: Classifying Long-tailed and Label-noise Data via Disentangling and Unlearning
- arxiv url: http://arxiv.org/abs/2503.11414v1
- Date: Fri, 14 Mar 2025 13:58:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:06:23.013233
- Title: Classifying Long-tailed and Label-noise Data via Disentangling and Unlearning
- Title(参考訳): ディエンタングリングとアンラーニングによる長尾・ラベルノイズデータの分類
- Authors: Chen Shu, Mengke Li, Yiqun Zhang, Yang Lu, Bo Han, Yiu-ming Cheung, Hanzi Wang,
- Abstract要約: 実世界のデータセットでは、長い尾の分布とノイズラベルの課題はしばしば共存する。
本稿では,長い尾とラベルノイズデータに対するディスタングルとアンラーニングという新しい手法を提案する。
- 参考スコア(独自算出の注目度): 58.052712054684946
- License:
- Abstract: In real-world datasets, the challenges of long-tailed distributions and noisy labels often coexist, posing obstacles to the model training and performance. Existing studies on long-tailed noisy label learning (LTNLL) typically assume that the generation of noisy labels is independent of the long-tailed distribution, which may not be true from a practical perspective. In real-world situaiton, we observe that the tail class samples are more likely to be mislabeled as head, exacerbating the original degree of imbalance. We call this phenomenon as ``tail-to-head (T2H)'' noise. T2H noise severely degrades model performance by polluting the head classes and forcing the model to learn the tail samples as head. To address this challenge, we investigate the dynamic misleading process of the nosiy labels and propose a novel method called Disentangling and Unlearning for Long-tailed and Label-noisy data (DULL). It first employs the Inner-Feature Disentangling (IFD) to disentangle feature internally. Based on this, the Inner-Feature Partial Unlearning (IFPU) is then applied to weaken and unlearn incorrect feature regions correlated to wrong classes. This method prevents the model from being misled by noisy labels, enhancing the model's robustness against noise. To provide a controlled experimental environment, we further propose a new noise addition algorithm to simulate T2H noise. Extensive experiments on both simulated and real-world datasets demonstrate the effectiveness of our proposed method.
- Abstract(参考訳): 実世界のデータセットでは、長い尾の分布とノイズの多いラベルの課題はしばしば共存し、モデルのトレーニングとパフォーマンスに障害を生じさせる。
従来のLong-tailed Noisy label learning (LTNLL) の研究は、一般的に、ノイズラベルの生成はロングテール分布とは独立であり、実際的な観点からは当てはまらないと仮定している。
実世界のシチュアトンでは、テールクラスのサンプルは頭として誤ってラベル付けされる傾向があり、元々の不均衡の程度を悪化させる。
この現象を '‘tail-to-head (T2H)' と呼ぶ。
T2Hノイズは、ヘッドクラスを汚染し、モデルにテールサンプルをヘッドとして学習させることにより、モデル性能を著しく低下させる。
この課題に対処するために, 雑音ラベルの動的ミスリード過程について検討し, 長い尾とラベルの雑音データ(DULL)に対するディスタングリングとアンラーニングという新しい手法を提案する。
最初はインナー・フィーチャー・ディアンタングリング(IFD)を使用して、機能を内部的にアンタングルする。
これに基づいて、内特徴部分学習(IFPU)を適用し、間違ったクラスに相関した不正確な特徴領域を弱め、未学習にする。
この方法では、モデルがノイズラベルによって誤解されるのを防ぎ、モデルがノイズに対して頑健性を高める。
さらに,T2Hノイズをシミュレートする新しい雑音付加アルゴリズムを提案する。
シミュレーションと実世界の両方のデータセットに対する大規模な実験により,提案手法の有効性が示された。
関連論文リスト
- Correcting Noisy Multilabel Predictions: Modeling Label Noise through Latent Space Shifts [4.795811957412855]
ほとんどの現実世界の機械学習アプリケーションでは、データのノイズは避けられないように思える。
マルチラベル分類における雑音ラベル学習の分野について検討した。
我々のモデルは、雑音のラベル付けは潜伏変数の変化から生じると仮定し、より堅牢で有益な学習手段を提供する。
論文 参考訳(メタデータ) (2025-02-20T05:41:52Z) - Label-Noise Robust Diffusion Models [18.82847557713331]
条件拡散モデルは、様々な生成タスクにおいて顕著な性能を示した。
訓練には、条件付き入力でしばしばノイズを含む大規模なデータセット、すなわちノイズラベルが必要である。
本稿では,雑音ラベル付き条件付き拡散モデルの学習のための遷移対応重み付きDenoising Score Matchingを提案する。
論文 参考訳(メタデータ) (2024-02-27T14:00:34Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Uncertainty-Aware Learning Against Label Noise on Imbalanced Datasets [23.4536532321199]
不整合データセットのラベルノイズを処理するための不確かさを意識したラベル補正フレームワークを提案する。
本研究では,不均衡なデータセットのラベルノイズを処理するために,不確かさを意識したラベル補正フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T11:35:55Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。