論文の概要: Robust Self-Training with Closed-loop Label Correction for Learning from Noisy Labels
- arxiv url: http://arxiv.org/abs/2603.13894v1
- Date: Sat, 14 Mar 2026 11:10:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.472226
- Title: Robust Self-Training with Closed-loop Label Correction for Learning from Noisy Labels
- Title(参考訳): 閉ループラベル補正を用いた雑音ラベルからの学習のためのロバスト自己学習
- Authors: Zhanhui Lin, Yanlin Liu, Sanping Zhou,
- Abstract要約: ノイズの多いラベルでディープニューラルネットワークをトレーニングすることは、依然として大きな課題である。
分離二段階最適化を用いた自己学習ラベル補正フレームワークを提案する。
提案手法は, 地中構造を伝達するために, ノイズのある後部シミュレーションと中間特徴を用いる。
- 参考スコア(独自算出の注目度): 29.68163073890278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training deep neural networks with noisy labels remains a significant challenge, often leading to degraded performance. Existing methods for handling label noise typically rely on either transition matrix, noise detection, or meta-learning techniques, but they often exhibit low utilization efficiency of noisy samples and incur high computational costs. In this paper, we propose a self-training label correction framework using decoupled bilevel optimization, where a classifier and neural correction function co-evolve. Leveraging a small clean dataset, our method employs noisy posterior simulation and intermediate features to transfer ground-truth knowledge, forming a closed-loop feedback system that prevents error amplification. Theoretical guarantees underpin the stability of our approach, and extensive experiments on benchmark datasets like CIFAR and Clothing1M confirm state-of-the-art performance with reduced training time, highlighting its practical applicability for learning from noisy labels.
- Abstract(参考訳): ノイズの多いラベルでディープニューラルネットワークをトレーニングすることは依然として大きな課題であり、しばしば性能低下につながる。
ラベルノイズを扱う既存の方法は、遷移行列、ノイズ検出、メタラーニング技術のいずれかに依存しているが、ノイズの多いサンプルの利用効率が低く、高い計算コストがかかることが多い。
本稿では,分離二段階最適化を用いた自己学習ラベル補正フレームワークを提案する。
提案手法は,小さなクリーンなデータセットを応用し,ノイズのある後部シミュレーションと中間特徴を用いて,地絡知識を伝達し,誤りの増幅を防止するクローズドループフィードバックシステムを構築する。
CIFARやClothing1Mといったベンチマークデータセットに対する広範な実験により、トレーニング時間を短縮して最先端のパフォーマンスを確認し、ノイズの多いラベルから学ぶための実用的な適用性を強調します。
関連論文リスト
- Learning to Clean: Reinforcement Learning for Noisy Label Correction [25.643437301724365]
本稿では,雑音ラベル補正を強化学習問題として概念化する新しい枠組みを提案する。
提案手法であるReinforcement Learning for Noisy Label Correction (RLNLC)は,データとその関連ラベルを表す包括的状態空間を定義する。
RLNLCの有効性は、複数のベンチマークデータセットに対する広範な実験を通じて実証される。
論文 参考訳(メタデータ) (2025-11-25T00:32:03Z) - Mitigating Instance-Dependent Label Noise: Integrating Self-Supervised Pretraining with Pseudo-Label Refinement [3.272177633069322]
実世界のデータセットは、アノテーションプロセス中にヒューマンエラー、あいまいさ、リソース制約のために、ノイズの多いラベルを含むことが多い。
そこで本研究では,SimCLRを用いた自己教師型学習と反復的擬似ラベル改良を組み合わせた新しいフレームワークを提案する。
提案手法は,特に高騒音条件下では,いくつかの最先端手法よりも優れる。
論文 参考訳(メタデータ) (2024-12-06T09:56:49Z) - One-step Noisy Label Mitigation [86.57572253460125]
ノイズラベルのトレーニング過程に対する有害な影響の軽減がますます重要になっている。
モデルに依存しないノイズラベル緩和パラダイムである1ステップアンチノイズ(OSA)を提案する。
我々はOSAの優位性を実証的に実証し、トレーニングの堅牢性の向上、タスク転送性の向上、デプロイメントの容易性、計算コストの削減を強調した。
論文 参考訳(メタデータ) (2024-10-02T18:42:56Z) - ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Fine tuning Pre trained Models for Robustness Under Noisy Labels [34.68018860186995]
トレーニングデータセットにノイズの多いラベルが存在することは、機械学習モデルのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、事前学習されたモデルの事前知識を頑健かつ効率的に伝達するTURNと呼ばれる新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-24T20:28:59Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - Constrained Instance and Class Reweighting for Robust Learning under
Label Noise [20.30785186456126]
本稿では,個々のインスタンスやクラスラベルに重みを割り当てることを目的として,ラベルノイズに対処する手法を提案する。
本手法は,これらの重み付けに対して単純な閉形式更新をもたらす制約付き最適化問題のクラスを定式化することによって機能する。
提案手法を複数のベンチマークデータセット上で評価し,ラベルノイズの有無でかなりの性能向上を観測した。
論文 参考訳(メタデータ) (2021-11-09T21:37:53Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。