論文の概要: Towards the Identifiability in Noisy Label Learning: A Multinomial Mixture Modelling Approach
- arxiv url: http://arxiv.org/abs/2301.01405v3
- Date: Wed, 24 Sep 2025 18:55:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.383933
- Title: Towards the Identifiability in Noisy Label Learning: A Multinomial Mixture Modelling Approach
- Title(参考訳): 雑音ラベル学習における識別可能性に向けて:多項混合モデルによるアプローチ
- Authors: Cuong Nguyen, Thanh-Toan Do, Gustavo Carneiro,
- Abstract要約: 本稿では,雑音ラベル(LNL)から学習する新しいデータ駆動型手法を提案する。
そこで本研究では,最寄りの周辺部から追加の雑音ラベルを自動生成する手法を提案する。
提案手法は,合成,Web制御,実世界のデータセットを含む,さまざまなラベルノイズベンチマークにおいて,クリーンなラベルを正確に推定する。
- 参考スコア(独自算出の注目度): 24.568964285904055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from noisy labels (LNL) is crucial in deep learning, in which one of the approaches is to identify clean-label samples from poorly-annotated datasets. Such an identification is challenging because the conventional LNL problem, which assumes only one noisy label per instance, is non-identifiable, i.e., clean labels cannot be estimated theoretically without additional heuristics. This paper presents a novel data-driven approach that addresses this issue without requiring any heuristics about clean samples. We discover that the LNL problem becomes identifiable if there are at least $2C - 1$ i.i.d. noisy labels per instance, where $C$ is the number of classes. Our finding relies on the assumption of i.i.d. noisy labels and multinomial mixture modelling, making it easier to interpret than previous studies that require full-rank noisy-label transition matrices. To fulfil this condition without additional manual annotations, we propose a method that automatically generates additional i.i.d. noisy labels through nearest neighbours. These noisy labels are then used in the Expectation-Maximisation algorithm to infer clean labels. Our method demonstrably estimates clean labels accurately across various label noise benchmarks, including synthetic, web-controlled, and real-world datasets. Furthermore, the model trained with our method performs competitively with many state-of-the-art methods.
- Abstract(参考訳): ノイズラベル(LNL)からの学習はディープラーニングにおいて不可欠であり、その1つのアプローチは、貧弱な注釈付きデータセットからクリーンラベルのサンプルを特定することである。
従来のLNL問題は、インスタンスごとに1つのノイズラベルのみを仮定しており、クリーンラベルは理論的には追加のヒューリスティックなしでは推定できないため、このような識別は困難である。
本稿では、クリーンサンプルに関するヒューリスティックな知識を必要とせずに、この問題に対処する新しいデータ駆動アプローチを提案する。
LNL問題は、インスタンス毎に少なくとも2C - 1$ i.d. ノイズラベルがあり、もし$C$がクラスの数であるなら、特定できる。
我々の発見は、i.d.ノイズラベルと多項混合モデリングの仮定に依存しており、フルランクノイズラベル遷移行列を必要とする以前の研究よりも容易に解釈できる。
この条件を追加の手動アノテーションを使わずに満たすため,近接する周辺地域を通じて,新たな雑音ラベルを自動生成する手法を提案する。
これらのノイズラベルは、クリーンラベルを推論するために期待最大化アルゴリズムで使用される。
提案手法は,合成,Web制御,実世界のデータセットを含む,さまざまなラベルノイズベンチマークにおいて,クリーンなラベルを正確に推定する。
さらに,本手法で訓練したモデルは,多くの最先端手法と競合する。
関連論文リスト
- Noise-Resistant Label Reconstruction Feature Selection for Partial Multi-Label Learning [3.635311806373203]
次元の急激さ」は様々なデータパターンにまたがって広まり、モデルオーバーフィットのリスクが増大し、モデル分類性能が低下する。
既存のPML(Partial Multi-label Learning)メソッドは、主に低ランクな仮定に基づいている。
本稿では,データセットの2つの重要な特徴を考慮したPML特徴選択手法を提案する。
論文 参考訳(メタデータ) (2025-06-05T06:31:04Z) - Efficient Adaptive Label Refinement for Label Noise Learning [14.617885790129336]
本稿では,不適切なラベルを回避し,クリーンなサンプルを徹底的に学習するための適応ラベル精製(ALR)を提案する。
ALRは単純で効率的であり、ノイズや補助的なデータセットに関する事前の知識を必要としない。
人工ラベルノイズ付きベンチマークデータセット(CIFAR-10/100)と固有ノイズ付き実世界のデータセット(ANIMAL-10N, Clothing1M, WebVision)を用いて、ALRの有効性を検証する。
論文 参考訳(メタデータ) (2025-02-01T09:58:08Z) - Mixed Blessing: Class-Wise Embedding guided Instance-Dependent Partial Label Learning [53.64180787439527]
部分ラベル学習(PLL)では、各サンプルは、基底トラスラベルと複数のノイズラベルからなる候補ラベルセットに関連付けられている。
初めて、各サンプルに対してクラスワイドな埋め込みを作成し、インスタンス依存のノイズラベルの関係を調査できるようにします。
ラベルの曖昧さを低減するため,グローバルな特徴情報を含むクラスプロトタイプのコンセプトを紹介した。
論文 参考訳(メタデータ) (2024-12-06T13:25:39Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - Partial Label Supervision for Agnostic Generative Noisy Label Learning [18.29334728940232]
ノイズラベル学習は差別的アプローチと生成的アプローチの両方に取り組んできた。
本稿では,これらの課題に対処する生成ノイズラベル学習のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-02T14:48:25Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - BadLabel: A Robust Perspective on Evaluating and Enhancing Label-noise
Learning [113.8799653759137]
我々はBadLabelと呼ばれる新しいラベルノイズタイプを導入し、既存のLNLアルゴリズムの性能を大幅に劣化させることができる。
BadLabelは、標準分類に対するラベルフライング攻撃に基づいて開発されている。
そこで本稿では, 各エポックにおいてラベルを逆向きに摂動させ, クリーンかつノイズの多いラベルの損失値を再び識別可能にする頑健なLNL法を提案する。
論文 参考訳(メタデータ) (2023-05-28T06:26:23Z) - Instance-dependent Label Distribution Estimation for Learning with Label Noise [20.479674500893303]
雑音遷移行列(NTM)推定はラベル雑音による学習に有望な手法である。
本稿では、画像分類のためのノイズラベルから学習するためのインスタンス依存ラベル分布推定(ILDE)手法を提案する。
提案手法は, 合成ノイズであっても実雑音であっても, 競合する全ての手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-12-16T10:13:25Z) - An Ensemble Noise-Robust K-fold Cross-Validation Selection Method for
Noisy Labels [0.9699640804685629]
大規模なデータセットには、ディープニューラルネットワーク(DNN)によって記憶されるような、ラベルのずれたサンプルが含まれている傾向があります。
本稿では, ノイズデータからクリーンなサンプルを効果的に選択するために, アンサンブルノイズ・ロバスト K-fold Cross-Validation Selection (E-NKCVS) を提案する。
我々は,ラベルが手動で異なる雑音比で破損した様々な画像・テキスト分類タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-07-06T02:14:52Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。