論文の概要: Bridging Generative and Discriminative Noisy-Label Learning via Direction-Agnostic EM Formulation
- arxiv url: http://arxiv.org/abs/2308.01184v3
- Date: Wed, 05 Nov 2025 21:17:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.037139
- Title: Bridging Generative and Discriminative Noisy-Label Learning via Direction-Agnostic EM Formulation
- Title(参考訳): 方向非依存EM定式化によるブリッジ生成と識別的雑音ラベル学習
- Authors: Fengbei Liu, Chong Wang, Yuanhong Chen, Yuyuan Liu, Gustavo Carneiro,
- Abstract要約: 生成雑音ラベル学習のための一段階EMスタイルのフレームワークを提案する。
提案手法は, 最先端の精度, 遷移行列推定誤差の低減, および現在の生成的および識別的ベースラインよりも大幅に少ないトレーニング計算を実現する。
- 参考スコア(独自算出の注目度): 26.430145104987982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although noisy-label learning is often approached with discriminative methods for simplicity and speed, generative modeling offers a principled alternative by capturing the joint mechanism that produces features, clean labels, and corrupted observations. However, prior work typically (i) introduces extra latent variables and heavy image generators that bias training toward reconstruction, (ii) fixes a single data-generating direction (\(Y\rightarrow\!X\) or \(X\rightarrow\!Y\)), limiting adaptability, and (iii) assumes a uniform prior over clean labels, ignoring instance-level uncertainty. We propose a single-stage, EM-style framework for generative noisy-label learning that is \emph{direction-agnostic} and avoids explicit image synthesis. First, we derive a single Expectation-Maximization (EM) objective whose E-step specializes to either causal orientation without changing the overall optimization. Second, we replace the intractable \(p(X\mid Y)\) with a dataset-normalized discriminative proxy computed using a discriminative classifier on the finite training set, retaining the structural benefits of generative modeling at much lower cost. Third, we introduce \emph{Partial-Label Supervision} (PLS), an instance-specific prior over clean labels that balances coverage and uncertainty, improving data-dependent regularization. Across standard vision and natural language processing (NLP) noisy-label benchmarks, our method achieves state-of-the-art accuracy, lower transition-matrix estimation error, and substantially less training compute than current generative and discriminative baselines. Code: https://github.com/lfb-1/GNL
- Abstract(参考訳): ノイズラベル学習は、単純さとスピードの差別的な手法でアプローチされることが多いが、生成モデリングは、特徴、クリーンラベル、および破損した観察を発生させるジョイントメカニズムを捉えることによって、原則化された代替手段を提供する。
しかし、一般的には前作である。
二 余剰潜伏変数及び重画像生成装置を導入し、再建に向けてバイアストレーニングを行う。
(ii) 単一のデータ生成方向 (\(Y\rightarrow\!
X\) または \(X\rightarrow\!
Y))、適応性を制限する、そして
三 清潔なラベルに先立って一様を仮定し、インスタンスレベルの不確実性を無視する。
そこで本稿では,emph{direction-agnostic} である生成雑音ラベル学習のための一段階EMスタイルのフレームワークを提案する。
まず、Eステップが全体最適化を変更することなく因果方向を専門とする単一の期待最大化(EM)目標を導出する。
第二に、抽出可能な \(p(X\mid Y)\ を有限トレーニングセット上の識別的分類器を用いて計算したデータセット正規化判別プロキシに置き換え、生成的モデリングの構造的利点をはるかに低コストで維持する。
第3に、クリーンなラベルのインスタンス固有の事前定義である \emph{Partial-Label Supervision} (PLS) を導入し、カバレッジと不確実性をバランスさせ、データ依存の正規化を改善する。
標準ビジョンと自然言語処理 (NLP) のノイズラベルベンチマークを通じて, 最先端の精度, 遷移行列推定誤差の低減, および, 現在の生成的および識別的ベースラインよりもはるかに少ないトレーニング計算を実現する。
コード:https://github.com/lfb-1/GNL
関連論文リスト
- Reduction-based Pseudo-label Generation for Instance-dependent Partial Label Learning [41.345794038968776]
本稿では,誤り候補ラベルの影響を軽減するために,リダクションに基づく擬似ラベルを活用することを提案する。
推定モデルから生成した擬似ラベルと比較して,減算に基づく擬似ラベルはベイズ最適分類器との整合性が高いことを示す。
論文 参考訳(メタデータ) (2024-10-28T07:32:20Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - BadLabel: A Robust Perspective on Evaluating and Enhancing Label-noise
Learning [113.8799653759137]
我々はBadLabelと呼ばれる新しいラベルノイズタイプを導入し、既存のLNLアルゴリズムの性能を大幅に劣化させることができる。
BadLabelは、標準分類に対するラベルフライング攻撃に基づいて開発されている。
そこで本稿では, 各エポックにおいてラベルを逆向きに摂動させ, クリーンかつノイズの多いラベルの損失値を再び識別可能にする頑健なLNL法を提案する。
論文 参考訳(メタデータ) (2023-05-28T06:26:23Z) - Towards the Identifiability in Noisy Label Learning: A Multinomial
Mixture Approach [37.32107678838193]
雑音ラベル(LNL)からの学習は、ディープラーニングにおいて重要な役割を果たす。
最も有望なLNLメソッドは、ノイズの多いアノテーションでデータセットからクリーンなラベルサンプルを特定することに依存する。
そこで本研究では,最寄りの住民を対象に,雑音ラベルの分布を推定することで,新たな雑音ラベルを自動的に生成する手法を提案する。
論文 参考訳(メタデータ) (2023-01-04T01:54:33Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Category-Adaptive Label Discovery and Noise Rejection for Multi-label
Image Recognition with Partial Positive Labels [78.88007892742438]
部分正ラベル(MLR-PPL)を用いたマルチラベルモデルの訓練が注目されている。
これまでの研究では、未知のラベルを負とみなし、従来のMLRアルゴリズムを採用した。
我々は,MLR-PPLタスクを容易にするために,異なる画像間の意味的相関について検討する。
論文 参考訳(メタデータ) (2022-11-15T02:11:20Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - Instance-dependent Label-noise Learning under a Structural Causal Model [92.76400590283448]
ラベルノイズはディープラーニングアルゴリズムの性能を劣化させる。
構造因果モデルを活用することにより,実例依存型ラベルノイズ学習のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T10:42:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。