論文の概要: Revisiting Meta-Learning with Noisy Labels: Reweighting Dynamics and Theoretical Guarantees
- arxiv url: http://arxiv.org/abs/2510.12209v1
- Date: Tue, 14 Oct 2025 07:00:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.21658
- Title: Revisiting Meta-Learning with Noisy Labels: Reweighting Dynamics and Theoretical Guarantees
- Title(参考訳): 騒音ラベルによるメタラーニングの再検討:リウェイディングダイナミクスと理論的保証
- Authors: Yiming Zhang, Chester Holtz, Gal Mishne, Alex Cloninger,
- Abstract要約: 本稿では,平均重み付け,行シフト,ラベル署名による変調を統合したメタリウェイト化のための軽量サロゲートを提案する。
合成および実雑音ラベルベンチマーク全体において,本手法は強い再重み付け/選択ベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 11.411266656183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning with noisy labels remains challenging because over-parameterized networks memorize corrupted supervision. Meta-learning-based sample reweighting mitigates this by using a small clean subset to guide training, yet its behavior and training dynamics lack theoretical understanding. We provide a rigorous theoretical analysis of meta-reweighting under label noise and show that its training trajectory unfolds in three phases: (i) an alignment phase that amplifies examples consistent with a clean subset and suppresses conflicting ones; (ii) a filtering phase driving noisy example weights toward zero until the clean subset loss plateaus; and (iii) a post-filtering phase in which noise filtration becomes perturbation-sensitive. The mechanism is a similarity-weighted coupling between training and clean subset signals together with clean subset training loss contraction; in the post-filtering regime where the clean-subset loss is sufficiently small, the coupling term vanishes and meta-reweighting loses discriminatory power. Guided by this analysis, we propose a lightweight surrogate for meta-reweighting that integrates mean-centering, row shifting, and label-signed modulation, yielding more stable performance while avoiding expensive bi-level optimization. Across synthetic and real noisy-label benchmarks, our method consistently outperforms strong reweighting/selection baselines.
- Abstract(参考訳): 過度にパラメータ化されたネットワークは、腐敗した監視を記憶しているため、ノイズの多いラベルで学ぶことは依然として難しい。
メタラーニングに基づくサンプル再重み付けは、トレーニングをガイドするために小さなクリーンサブセットを使用することによってこれを緩和するが、その振る舞いとトレーニングのダイナミクスは理論的な理解を欠いている。
ラベルノイズ下でのメタリウェイトに関する厳密な理論的解析を行い、その訓練軌道が3段階に展開することを示す。
一 清潔な部分集合に整合した例を増幅し、矛盾するものを抑制する調整段階
二 清浄なサブセット損失高原まで、ノイズを発生させるフィルタ位相
三 ノイズ濾過が摂動に敏感になるフィルタ後位相
この機構は、トレーニング信号とクリーンサブセット信号との類似性重み付き結合と、クリーンサブセットの損失が十分に小さいポストフィルタ方式では、結合項が消滅し、メタリウェイトが識別力を失う。
そこで本研究では, 平均集中, 行シフト, ラベル署名の変調を統合したメタリウェイト化のための軽量サロゲートを提案し, 高い双レベル最適化を回避しつつ, より安定した性能を実現する。
合成および実雑音ラベルベンチマーク全体において,本手法は強い再重み付け/選択ベースラインを一貫して上回っている。
関連論文リスト
- Combating Noisy Labels via Dynamic Connection Masking [31.78040205653134]
MLP(Multi-Layer Perceptron Networks)とKAN(Kolmogorov-Arnold Networks)のための動的接続マスキング(DCM)機構を提案する。
我々のアプローチは、より堅牢なディープネットワークを構築するために、様々なノイズロストトレーニング手法にシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-13T10:51:46Z) - Training More Robust Classification Model via Discriminative Loss and Gaussian Noise Injection [7.535952418691443]
本稿では,クラス内コンパクト性を明示する最小層に適用した損失関数を提案する。
また、ノイズの多いデータクラスタをクリーンなクラスタに近づける、クラスワイズな機能アライメント機構を提案する。
提案手法は, クリーンなデータに対して高い精度を維持しながら, 各種摂動に対するモデルロバスト性を大幅に強化する。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Robust Training under Label Noise by Over-parameterization [41.03008228953627]
本稿では,トレーニングラベルの比率が低下した分類タスクにおいて,過パラメータ化深層ネットワークの堅牢なトレーニングを行うための原則的手法を提案する。
ラベルノイズはクリーンデータから学んだネットワークと疎結合なので、ノイズをモデル化してデータから分離することを学びます。
注目すべきは、このような単純な手法を用いて訓練を行う場合、様々な実データに対してラベルノイズに対する最先端のテスト精度を示すことである。
論文 参考訳(メタデータ) (2022-02-28T18:50:10Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Consistency Regularization Can Improve Robustness to Label Noise [4.340338299803562]
本稿では,雑音ラベルに対するトレーニング時ロバスト性に対する整合正則化の関連性について実験的に検討する。
整合性を促進する単純な損失関数は、ノイズをラベル付けするためのモデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-10-04T08:15:08Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。