論文の概要: Introducing Fractional Classification Loss for Robust Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2508.06346v1
- Date: Fri, 08 Aug 2025 14:20:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.25576
- Title: Introducing Fractional Classification Loss for Robust Learning with Noisy Labels
- Title(参考訳): 雑音ラベルを用いたロバスト学習のための分節分類損失の導入
- Authors: Mert Can Kurucu, Tufan Kumbasar, İbrahim Eksin, Müjde Güzelkaya,
- Abstract要約: 適応的ロバスト損失であるフラクタル分類損失 (FCL) を導入し, トレーニング中, ラベルノイズに対するロバストさを自動的に校正する。
FCLは手動のハイパーパラメータチューニングを必要とせずに最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 2.312414367096445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust loss functions are crucial for training deep neural networks in the presence of label noise, yet existing approaches require extensive, dataset-specific hyperparameter tuning. In this work, we introduce Fractional Classification Loss (FCL), an adaptive robust loss that automatically calibrates its robustness to label noise during training. Built within the active-passive loss framework, FCL employs the fractional derivative of the Cross-Entropy (CE) loss as its active component and the Mean Absolute Error (MAE) as its passive loss component. With this formulation, we demonstrate that the fractional derivative order $\mu$ spans a family of loss functions that interpolate between MAE-like robustness and CE-like fast convergence. Furthermore, we integrate $\mu$ into the gradient-based optimization as a learnable parameter and automatically adjust it to optimize the trade-off between robustness and convergence speed. We reveal that FCL's unique property establishes a critical trade-off that enables the stable learning of $\mu$: lower log penalties on difficult or mislabeled examples improve robustness but impose higher penalties on easy or clean data, reducing model confidence in them. Consequently, FCL can dynamically reshape its loss landscape to achieve effective classification performance under label noise. Extensive experiments on benchmark datasets show that FCL achieves state-of-the-art results without the need for manual hyperparameter tuning.
- Abstract(参考訳): ラベルノイズの存在下でのディープニューラルネットワークのトレーニングにはロバスト損失関数が不可欠だが、既存のアプローチではデータセット固有のハイパーパラメータチューニングが必要である。
本研究では,適応的ロバスト損失であるフラクタル分類損失(FCL)を導入し,そのロバスト性をトレーニング中のラベルノイズに自動的に校正する。
アクティブ-パッシブ損失フレームワーク内に構築されたFCLは、クロスエントロピー損失(CE)を活性成分とし、平均絶対誤差(MAE)を受動損失成分とする。
この定式化により、分数微分次数$\mu$は、MAEのようなロバストネスとCEのような高速収束の間の補間する損失関数の族にまたがることを示した。
さらに、勾配に基づく最適化に$\mu$を学習可能なパラメータとして統合し、ロバストネスと収束速度のトレードオフを最適化するために自動的に調整する。
FCLのユニークな性質は、$\mu$の安定した学習を可能にする重要なトレードオフを確立することを明らかにする。
これにより、FCLはそのロスランドスケープを動的に再構成し、ラベルノイズ下での効果的な分類性能を実現することができる。
ベンチマークデータセットの大規模な実験は、手動のハイパーパラメータチューニングを必要とせずに、FCLが最先端の結果を達成することを示している。
関連論文リスト
- FedEFC: Federated Learning Using Enhanced Forward Correction Against Noisy Labels [5.885238773559016]
フェデレートラーニング(FL)は、プライバシを保存する分散ラーニングのための強力なフレームワークである。
FLにおけるノイズの多いラベルの扱いは、不均一なデータ分散と通信制約のため、依然として大きな課題である。
FLにおける雑音ラベルの影響に対処する新しい手法であるFedEFCを提案する。
論文 参考訳(メタデータ) (2025-04-08T02:14:50Z) - Active Negative Loss: A Robust Framework for Learning with Noisy Labels [26.853357479214004]
ノイズ・ロバスト損失関数はラベルノイズの存在下での学習を改善する効果的なソリューションを提供する。
本稿では,新しい損失関数クラスである正規化負損失関数(NNLF)を導入し,APLフレームワーク内の受動損失関数として機能する。
非対称ノイズシナリオでは,脆弱性をラベルの不均衡に緩和するエントロピーに基づく正規化手法を提案する。
論文 参考訳(メタデータ) (2024-12-03T11:00:15Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Learning Adaptive Loss for Robust Learning with Noisy Labels [59.06189240645958]
ロバスト損失は、堅牢な学習問題を扱うための重要な戦略である。
本稿では,強靭なハイパーチューニングが可能なメタ学習手法を提案する。
4種類のSOTA損失関数は, 最小化, 一般利用, 有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T00:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。