論文の概要: Handling Label Noise via Instance-Level Difficulty Modeling and Dynamic Optimization
- arxiv url: http://arxiv.org/abs/2505.00812v1
- Date: Thu, 01 May 2025 19:12:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.806161
- Title: Handling Label Noise via Instance-Level Difficulty Modeling and Dynamic Optimization
- Title(参考訳): インスタンスレベル難易度モデリングと動的最適化によるラベルノイズの処理
- Authors: Kuan Zhang, Chengliang Chai, Jingzhe Xu, Chi Zhang, Ye Yuan, Guoren Wang, Lei Cao,
- Abstract要約: ディープニューラルネットワークは、ノイズの多い監視の下で一般化性能が低下する。
既存のメソッドでは、クリーンなサブセットの分離やノイズのあるラベルの修正に重点を置いている。
本稿では,インスタンスレベルの最適化が可能な新しい2段階雑音学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 33.13911801301048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies indicate that deep neural networks degrade in generalization performance under noisy supervision. Existing methods focus on isolating clean subsets or correcting noisy labels, facing limitations such as high computational costs, heavy hyperparameter tuning process, and coarse-grained optimization. To address these challenges, we propose a novel two-stage noisy learning framework that enables instance-level optimization through a dynamically weighted loss function, avoiding hyperparameter tuning. To obtain stable and accurate information about noise modeling, we introduce a simple yet effective metric, termed wrong event, which dynamically models the cleanliness and difficulty of individual samples while maintaining computational costs. Our framework first collects wrong event information and builds a strong base model. Then we perform noise-robust training on the base model, using a probabilistic model to handle the wrong event information of samples. Experiments on five synthetic and real-world LNL benchmarks demonstrate our method surpasses state-of-the-art methods in performance, achieves a nearly 75% reduction in computational time and improves model scalability.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワークはノイズ管理下での一般化性能が低下していることが示されている。
既存の方法は、高い計算コスト、重いハイパーパラメータチューニングプロセス、粗粒度最適化といった制限に直面したクリーンなサブセットの分離やノイズラベルの修正に重点を置いている。
これらの課題に対処するために,動的重み付き損失関数によるインスタンスレベルの最適化が可能な2段階雑音学習フレームワークを提案する。
ノイズモデリングに関する安定かつ正確な情報を得るため,計算コストを維持しつつ,個々のサンプルの清潔さと難易度を動的にモデル化する,シンプルで効果的な測定基準「誤イベント」を導入する。
私たちのフレームワークはまず、間違ったイベント情報を収集し、強力なベースモデルを構築します。
次に、確率モデルを用いて、ベースモデル上でノイズロバスト訓練を行い、サンプルの間違った事象情報を処理した。
5つの合成および実世界のLNLベンチマーク実験により、我々の手法は性能上の最先端の手法を超越し、計算時間の75%近くを短縮し、モデルのスケーラビリティを向上することを示した。
関連論文リスト
- A First-order Generative Bilevel Optimization Framework for Diffusion Models [57.40597004445473]
拡散モデルは、データサンプルを反復的に分解して高品質な出力を合成する。
従来の二値法は無限次元の確率空間と禁制的なサンプリングコストのために失敗する。
我々はこの問題を生成的二段階最適化問題として定式化する。
従来の2段階法と拡散過程の非互換性を克服する。
論文 参考訳(メタデータ) (2025-02-12T21:44:06Z) - One-step Noisy Label Mitigation [86.57572253460125]
ノイズラベルのトレーニング過程に対する有害な影響の軽減がますます重要になっている。
モデルに依存しないノイズラベル緩和パラダイムである1ステップアンチノイズ(OSA)を提案する。
我々はOSAの優位性を実証的に実証し、トレーニングの堅牢性の向上、タスク転送性の向上、デプロイメントの容易性、計算コストの削減を強調した。
論文 参考訳(メタデータ) (2024-10-02T18:42:56Z) - Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Fine tuning Pre trained Models for Robustness Under Noisy Labels [34.68018860186995]
トレーニングデータセットにノイズの多いラベルが存在することは、機械学習モデルのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、事前学習されたモデルの事前知識を頑健かつ効率的に伝達するTURNと呼ばれる新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-24T20:28:59Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。