論文の概要: Active Negative Loss: A Robust Framework for Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2412.02373v1
- Date: Tue, 03 Dec 2024 11:00:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:23.605863
- Title: Active Negative Loss: A Robust Framework for Learning with Noisy Labels
- Title(参考訳): Active Negative Loss: ノイズラベルによる学習のためのロバストフレームワーク
- Authors: Xichen Ye, Yifan Wu, Yiwen Xu, Xiaoqiang Li, Weizhong Zhang, Yifan Chen,
- Abstract要約: ノイズ・ロバスト損失関数はラベルノイズの存在下での学習を改善する効果的なソリューションを提供する。
本稿では,新しい損失関数クラスである正規化負損失関数(NNLF)を導入し,APLフレームワーク内の受動損失関数として機能する。
非対称ノイズシナリオでは,脆弱性をラベルの不均衡に緩和するエントロピーに基づく正規化手法を提案する。
- 参考スコア(独自算出の注目度): 26.853357479214004
- License:
- Abstract: Deep supervised learning has achieved remarkable success across a wide range of tasks, yet it remains susceptible to overfitting when confronted with noisy labels. To address this issue, noise-robust loss functions offer an effective solution for enhancing learning in the presence of label noise. In this work, we systematically investigate the limitation of the recently proposed Active Passive Loss (APL), which employs Mean Absolute Error (MAE) as its passive loss function. Despite the robustness brought by MAE, one of its key drawbacks is that it pays equal attention to clean and noisy samples; this feature slows down convergence and potentially makes training difficult, particularly in large-scale datasets. To overcome these challenges, we introduce a novel loss function class, termed Normalized Negative Loss Functions (NNLFs), which serve as passive loss functions within the APL framework. NNLFs effectively address the limitations of MAE by concentrating more on memorized clean samples. By replacing MAE in APL with our proposed NNLFs, we enhance APL and present a new framework called Active Negative Loss (ANL). Moreover, in non-symmetric noise scenarios, we propose an entropy-based regularization technique to mitigate the vulnerability to the label imbalance. Extensive experiments demonstrate that the new loss functions adopted by our ANL framework can achieve better or comparable performance to state-of-the-art methods across various label noise types and in image segmentation tasks. The source code is available at: https://github.com/Virusdoll/Active-Negative-Loss.
- Abstract(参考訳): 深い教師付き学習は、幅広いタスクで顕著な成功を収めてきたが、ノイズの多いラベルに直面した場合、過度に適合する可能性がある。
この問題に対処するために、ノイズロス関数はラベルノイズの存在下での学習を強化する効果的なソリューションを提供する。
本研究では,最近提案されたアクティブ・パッシブ・ロス(APL, Active Passive Loss)の限界を,MAE(Mean Absolute Error)をパッシブ・ロス関数として用いた体系的に検討する。
MAEがもたらすロバスト性にも拘わらず、その大きな欠点のひとつは、クリーンでノイズの多いサンプルに等しく注意を払うことだ。
これらの課題を克服するために、APLフレームワーク内の受動的損失関数として機能する、正規化負損失関数(NNLF)と呼ばれる新しい損失関数クラスを導入する。
NNLFは、記憶されたクリーンサンプルに集中することによって、MAEの限界に効果的に対処する。
APL の MAE を提案 NNLF に置き換えることで,APL を強化し,Active Negative Loss (ANL) という新たなフレームワークを提案する。
さらに,非対称雑音シナリオにおいて,脆弱性をラベルの不均衡に緩和するエントロピーに基づく正規化手法を提案する。
我々のANLフレームワークが採用した新しい損失関数は、様々なラベルノイズタイプや画像分割タスクにおいて、最先端の手法よりも優れた、あるいは同等のパフォーマンスを達成できることを示した。
ソースコードは、https://github.com/Virusdoll/Active-Negative-Lossで入手できる。
関連論文リスト
- One-step Noisy Label Mitigation [86.57572253460125]
ノイズラベルのトレーニング過程に対する有害な影響の軽減がますます重要になっている。
モデルに依存しないノイズラベル緩和パラダイムである1ステップアンチノイズ(OSA)を提案する。
我々はOSAの優位性を実証的に実証し、トレーニングの堅牢性の向上、タスク転送性の向上、デプロイメントの容易性、計算コストの削減を強調した。
論文 参考訳(メタデータ) (2024-10-02T18:42:56Z) - An Embedding is Worth a Thousand Noisy Labels [0.11999555634662634]
本稿では,重み付けされたアダプティブNearest Neighborアプローチを用いてラベルノイズに対処するWANNを提案する。
WANNの参照手法は、様々な大きさの多様なデータセットや、様々なノイズタイプや重大さで優れていることを示す。
私たちのアプローチは、効率性と説明可能性を強調し、ディープニューラルネットワークトレーニングの固有の制限を克服するための、シンプルで堅牢なソリューションとして現れます。
論文 参考訳(メタデータ) (2024-08-26T15:32:31Z) - Enhancing Vision-Language Few-Shot Adaptation with Negative Learning [11.545127156146368]
我々は,タスク固有の知識をより効率的に活用するための,シンプルで効果的な否定的学習手法SimNLを提案する。
そこで本研究では,雑音を緩和するために,プラグアンドプレイによる数発のインスタンス再重み付け手法を提案する。
提案したSimNLは,少数ショット学習とドメイン一般化の両タスクにおいて,既存の最先端手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2024-03-19T17:59:39Z) - Robust Tiny Object Detection in Aerial Images amidst Label Noise [50.257696872021164]
本研究は,ノイズラベル管理下での微小物体検出の問題に対処する。
本稿では,DN-TOD(Denoising Tiny Object Detector)を提案する。
本手法は,1段と2段の両方のオブジェクト検出パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-01-16T02:14:33Z) - Enhancing Noise-Robust Losses for Large-Scale Noisy Data Learning [0.0]
大きな注釈付きデータセットには、必然的にノイズのあるラベルが含まれており、ラベルを覚えやすいようにディープニューラルネットワークをトレーニングする上で大きな課題となる。
ノイズ・ロバスト損失関数はこの問題に対処するための重要な戦略として現れてきたが、過度に適合しないロバスト損失関数を作成することは依然として困難である。
本稿では,ロジットバイアス(logit bias)と表される新しい手法を提案し,ロジットに正しいクラスの位置で実数$epsilon$を付加する。
論文 参考訳(メタデータ) (2023-06-08T18:38:55Z) - Dynamics-Aware Loss for Learning with Label Noise [73.75129479936302]
ディープニューラルネットワーク(DNN)にラベルノイズが深刻な脅威をもたらす
本稿では,この問題を解決するためにDAL(Dynamics-Aware Los)を提案する。
詳細な理論的解析と広範な実験結果の両方が,本手法の優位性を示している。
論文 参考訳(メタデータ) (2023-03-21T03:05:21Z) - Fighting noise and imbalance in Action Unit detection problems [7.971065005161565]
アクションユニット(AU)検出は、それらが関与する筋活動で表情を自動的に活性化することを目的としている。
利用可能なデータベースは、顔の変動が限られており、中立表現に対して不均衡である。
本稿では,Robin Hood Label Smoothing(RHLS)を提案する。
論文 参考訳(メタデータ) (2023-03-06T09:41:40Z) - Fine-Grained Classification with Noisy Labels [31.128588235268126]
雑音ラベル(LNL)を用いた学習は,ラベルが破損したトレーニングセットからモデル一般化を保証することを目的としている。
粒度データセット(LNL-FG)におけるLNLの滅多に研究されていないシナリオについて検討する。
本稿では,識別可能な表現を奨励することによってラベルノイズに直面する雑音耐性教師付きコントラスト学習(SNSCL)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-04T12:32:45Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Orthogonal Projection Loss [59.61277381836491]
直交射影損失(OPL)と呼ばれる新しい損失関数を開発する。
OPLは、機能空間におけるクラス内クラスタリングとクラス間分離を直接実施する。
OPLは、慎重な負のマイニングを必要とせず、バッチサイズに敏感であるため、ユニークな利点がある。
論文 参考訳(メタデータ) (2021-03-25T17:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。