論文の概要: Step-E: A Differentiable Data Cleaning Framework for Robust Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2511.17040v1
- Date: Fri, 21 Nov 2025 08:31:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.938532
- Title: Step-E: A Differentiable Data Cleaning Framework for Robust Learning with Noisy Labels
- Title(参考訳): Step-E: ノイズラベルによるロバスト学習のための差別化可能なデータクリーニングフレームワーク
- Authors: Wenzhang Du,
- Abstract要約: サンプル選択とモデル学習をひとつの最適化プロセスに統合するフレームワークであるStep-Eを提案する。
Step-Eは、サンプルを損失別にランク付けし、更新から除外された高損失の例を徐々に増やします。
CIFAR-100Nでは、Step-EはResNet-18モデルのテスト精度を43.3%から50.4%に改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training data collected in the wild often contain noisy labels and outliers that substantially degrade the performance and reliability of deep neural networks. While data cleaning is commonly applied as a separate preprocessing stage, such two-stage pipelines neither fully exploit feedback from the downstream model nor adapt to unknown noise patterns. We propose Step-E, a simple framework that integrates sample selection and model learning into a single optimization process. At each epoch, Step-E ranks samples by loss and gradually increases the fraction of high-loss examples that are excluded from gradient updates after a brief warm-up stage, yielding an online curriculum that focuses on easy and consistent examples and eventually ignores persistent outliers. On CIFAR-100N, Step-E improves the test accuracy of a ResNet-18 model from 43.3% (+/- 0.7%) to 50.4% (+/- 0.9%), clearly outperforming loss truncation, self-paced learning, and one-shot filtering while approaching the clean-label oracle at 60.5% (+/- 0.2%). On CIFAR-10N (aggre), Step-E also improves over the noisy baseline (85.3% vs. 83.9%) and nearly matches the clean-label oracle (85.9%), with only moderate training-time overhead.
- Abstract(参考訳): 野生で収集されたトレーニングデータは、しばしば、ディープニューラルネットワークの性能と信頼性を著しく低下させるノイズの多いラベルと外れ値を含んでいる。
データクリーニングは独立した前処理段階として一般的に適用されるが、そのような2段階のパイプラインは下流モデルからのフィードバックを完全に活用したり、未知のノイズパターンに適応したりしない。
サンプル選択とモデル学習を単一の最適化プロセスに統合するシンプルなフレームワークであるStep-Eを提案する。
それぞれのエポックにおいて、Step-Eはサンプルを損失別にランク付けし、短いウォームアップ段階の後に勾配更新から除外された高損失例の比率を徐々に増加させ、簡単で一貫した例に焦点を当てたオンラインカリキュラムを生成し、最終的には永続的なアウトリーを無視する。
CIFAR-100Nでは、Step-EはResNet-18モデルのテスト精度を43.3%(+/-0.7%)から50.4%(+/-0.9%)に改善し、クリーンラベルのオラクルに60.5%(+/-0.2%)で近づきながら、ロストランケーション、セルフペースト学習、ワンショットフィルタリングに優れていた。
CIFAR-10N(アグリ)では、Step-Eはノイズの多いベースライン(85.3%対83.9%)よりも改善され、クリーンラベルのオラクル(85.9%)とほぼ一致する。
関連論文リスト
- The Surprising Effectiveness of Skip-Tuning in Diffusion Sampling [78.6155095947769]
Skip-Tuningは、スキップ接続上でシンプルだが驚くほど効果的にトレーニング不要なチューニング方法である。
ImageNet 64 では 19 NFE (1.75) で事前訓練された EDM に対して100% FID の改善が可能である。
Skip-Tuningは画素空間におけるスコアマッチング損失を増加させる一方、特徴空間における損失は減少する。
論文 参考訳(メタデータ) (2024-02-23T08:05:23Z) - Combating Label Noise With A General Surrogate Model For Sample Selection [77.45468386115306]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Getting More Juice Out of Your Data: Hard Pair Refinement Enhances Visual-Language Models Without Extra Data [122.282521548393]
コントラスト言語-画像事前学習 (CLIP) は, クロスモーダルな画像-テキスト表現学習の標準となっている。
HELIPは、CLIPモデルを改善するためのコスト効率のよい戦略であり、継続的なトレーニングにおいて既存のデータセット内の挑戦的なテキストイメージペアを利用することで、CLIPモデルを改善する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Reliable Label Correction is a Good Booster When Learning with Extremely
Noisy Labels [65.79898033530408]
極音下での学習に明示的に取り組むために,LC-Boosterと呼ばれる新しい枠組みを導入する。
LC-Boosterは、ラベル補正をサンプル選択に組み込むことで、信頼性の高いラベル修正を通じて、より精製されたサンプルをトレーニングに利用することができる。
実験により、LC-Boosterはいくつかのノイズラベルベンチマークで最先端の結果を前進させることが示された。
論文 参考訳(メタデータ) (2022-04-30T07:19:03Z) - CNLL: A Semi-supervised Approach For Continual Noisy Label Learning [12.341250124228859]
コスト効率と精度の両立したオンラインデータストリームを効果的に浄化する簡単な浄化手法を提案する。
精製後、我々は、利用可能なすべてのサンプルを確実に参加させる半教師付きで微調整を行う。
従来のSOTA法よりも20%のノイズでCIFAR10の24.8%の性能向上を実現した。
論文 参考訳(メタデータ) (2022-04-21T05:01:10Z) - Robust Temporal Ensembling for Learning with Noisy Labels [0.0]
本研究では,頑健な時間的アンサンブル(RTE)を半教師付き正規化法と組み合わせ,ノイズロス学習を実現する。
RTEはCIFAR-10、CIFAR-100、ImageNet、WebVision、Food-101Nデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-09-29T16:59:36Z) - Augmentation Strategies for Learning with Noisy Labels [3.698228929379249]
ノイズラベル付き学習」問題に取り組むアルゴリズムについて,様々な拡張戦略を評価した。
ロスモデリングタスクと学習のための別のセットに拡張の1つのセットを使用することが最も効果的であることがわかります。
我々は,この拡張戦略を最先端技術に導入し,評価されたすべての騒音レベルにおける性能向上を実証する。
論文 参考訳(メタデータ) (2021-03-03T02:19:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。