論文の概要: Extracting Clean and Balanced Subset for Noisy Long-tailed Classification
- arxiv url: http://arxiv.org/abs/2404.06795v1
- Date: Wed, 10 Apr 2024 07:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 15:19:53.016535
- Title: Extracting Clean and Balanced Subset for Noisy Long-tailed Classification
- Title(参考訳): ノイズのある長期分類のためのクリーンかつバランスの取れたサブセットの抽出
- Authors: Zhuo Li, He Zhao, Zhen Li, Tongliang Liu, Dandan Guo, Xiang Wan,
- Abstract要約: そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
- 参考スコア(独自算出の注目度): 66.47809135771698
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-world datasets usually are class-imbalanced and corrupted by label noise. To solve the joint issue of long-tailed distribution and label noise, most previous works usually aim to design a noise detector to distinguish the noisy and clean samples. Despite their effectiveness, they may be limited in handling the joint issue effectively in a unified way. In this work, we develop a novel pseudo labeling method using class prototypes from the perspective of distribution matching, which can be solved with optimal transport (OT). By setting a manually-specific probability measure and using a learned transport plan to pseudo-label the training samples, the proposed method can reduce the side-effects of noisy and long-tailed data simultaneously. Then we introduce a simple yet effective filter criteria by combining the observed labels and pseudo labels to obtain a more balanced and less noisy subset for a robust model training. Extensive experiments demonstrate that our method can extract this class-balanced subset with clean labels, which brings effective performance gains for long-tailed classification with label noise.
- Abstract(参考訳): 実世界のデータセットは通常、クラス不均衡であり、ラベルノイズによって破損する。
長い尾の分布とラベルノイズの連成問題を解決するため、従来のほとんどの研究はノイズ検知器を設計し、ノイズやクリーンなサンプルを識別することを目的としていた。
その効果にもかかわらず、共同問題を効果的に統一的に扱うことに制限されるかもしれない。
本研究では,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定した確率尺度を設定し、学習した輸送計画を用いてトレーニングサンプルを擬似ラベル付けすることで、提案手法はノイズと長い尾のデータの副作用を同時に低減することができる。
次に、観測されたラベルと擬似ラベルを組み合わせることで、頑健なモデルトレーニングのためのよりバランスのとれた、よりノイズの少ないサブセットを得る。
大規模な実験により,本手法がクリーンなラベル付きクラスバランスサブセットを抽出できることが示され,ラベルノイズ付きロングテール分類に有効な性能向上がもたらされた。
関連論文リスト
- Learning from Noisy Labels for Long-tailed Data via Optimal Transport [2.8821062918162146]
本稿では,長周期分布と雑音ラベルの両方を特徴とするデータ管理手法を提案する。
そこで我々は,半教師付き学習方式で擬似ラベルを生成するために,最適な輸送戦略を採用した。
論文 参考訳(メタデータ) (2024-08-07T14:15:18Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Combating Noisy Labels in Long-Tailed Image Classification [33.40963778043824]
本稿では,長期分布とラベルノイズの両方を用いて,画像分類課題に早期に取り組む。
既存のノイズキャンバス学習手法では, ノイズの多いサンプルをテールクラスのクリーンなサンプルと区別することが難しいため, このシナリオでは機能しない。
本稿では,弱いデータと強いデータに対する推測の一致に基づく新しい学習パラダイムを提案し,ノイズのあるサンプルをスクリーニングする。
論文 参考訳(メタデータ) (2022-09-01T07:31:03Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。