論文の概要: Joint Asymmetric Loss for Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2507.17692v1
- Date: Wed, 23 Jul 2025 16:57:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.099658
- Title: Joint Asymmetric Loss for Learning with Noisy Labels
- Title(参考訳): 雑音ラベルを用いた学習における非対称な非対称損失
- Authors: Jialiang Wang, Xianming Liu, Xiong Zhou, Gangfeng Hu, Deming Zhai, Junjun Jiang, Xiangyang Ji,
- Abstract要約: 対称的な損失は通常、過度に厳格な制約のために不適合な問題に悩まされる。
APL内では、対称的な損失がうまく拡張され、高度なロバストな損失関数が得られた。
JAL(Joint Asymmetric Loss)と呼ばれる新しいロバスト損失フレームワークを導入する。
- 参考スコア(独自算出の注目度): 95.14298444251044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning with noisy labels is a crucial task for training accurate deep neural networks. To mitigate label noise, prior studies have proposed various robust loss functions, particularly symmetric losses. Nevertheless, symmetric losses usually suffer from the underfitting issue due to the overly strict constraint. To address this problem, the Active Passive Loss (APL) jointly optimizes an active and a passive loss to mutually enhance the overall fitting ability. Within APL, symmetric losses have been successfully extended, yielding advanced robust loss functions. Despite these advancements, emerging theoretical analyses indicate that asymmetric losses, a new class of robust loss functions, possess superior properties compared to symmetric losses. However, existing asymmetric losses are not compatible with advanced optimization frameworks such as APL, limiting their potential and applicability. Motivated by this theoretical gap and the prospect of asymmetric losses, we extend the asymmetric loss to the more complex passive loss scenario and propose the Asymetric Mean Square Error (AMSE), a novel asymmetric loss. We rigorously establish the necessary and sufficient condition under which AMSE satisfies the asymmetric condition. By substituting the traditional symmetric passive loss in APL with our proposed AMSE, we introduce a novel robust loss framework termed Joint Asymmetric Loss (JAL). Extensive experiments demonstrate the effectiveness of our method in mitigating label noise. Code available at: https://github.com/cswjl/joint-asymmetric-loss
- Abstract(参考訳): ノイズの多いラベルで学習することは、正確なディープニューラルネットワークをトレーニングするための重要なタスクである。
ラベルノイズを軽減するため、従来の研究では様々なロバストな損失関数、特に対称な損失関数が提案されている。
それでも、対称的な損失は通常、過度に厳しい制約のために不適合な問題に悩まされる。
この問題に対処するため、アクティブ・パッシブ・ロス(APL)は、アクティブとパッシブ・ロスを共同で最適化し、全体的なフィッティング能力を相互に強化する。
APL内では、対称的な損失がうまく拡張され、高度なロバストな損失関数が得られた。
これらの進歩にもかかわらず、新たな理論分析は、非対称的損失、すなわち新しい強い損失関数のクラスは、対称的損失よりも優れた特性を有することを示している。
しかし、既存の非対称な損失は、APLのような高度な最適化フレームワークと互換性がなく、その可能性と適用性を制限する。
この理論的ギャップと非対称的損失の可能性により、我々は非対称的損失をより複雑な受動的損失シナリオにまで拡張し、新しい非対称的損失であるAsymetric Mean Square Error (AMSE)を提案する。
AMSEが非対称な条件を満たす必要十分条件を厳格に確立する。
APLの従来の対称的損失をAMSEに置き換えることで、JAL(Joint Asymmetric Loss)と呼ばれる新しいロバストな損失の枠組みを導入する。
広範に実験を行った結果,ラベルノイズ軽減効果が示された。
https://github.com/cswjl/joint-asymmetric-loss
関連論文リスト
- NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - Remove Symmetries to Control Model Expressivity and Improve Optimization [0.30723404270319693]
まず, 対称性が能力低下につながり, 訓練や推論中に特徴を無視する2つのメカニズムを実証する。
次に、ニューラルネットワークにおける対称性誘起低容量状態のほとんどをすべて除去する、単純で理論的に正当化されたアルゴリズムであるサイアを提案する。
提案手法の顕著な利点は、モデルに依存しず、対称性の知識を必要としないことである。
論文 参考訳(メタデータ) (2024-08-28T02:45:41Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Symmetric Neural-Collapse Representations with Supervised Contrastive
Loss: The Impact of ReLU and Batching [26.994954303270575]
スーパーバイザード・コントラスト・ロス(SCL)は、分類におけるクロスエントロピー・ロスの代わりとして、競争力があり、しばしば優れた選択肢である。
従来の研究では、両方の損失がバランスデータの下で対称的なトレーニング表現をもたらすことが示されているが、この対称性はクラス不均衡の下で破れる。
最終層におけるReLU活性化の導入は,SCL学習表現の対称性を効果的に回復させる。
論文 参考訳(メタデータ) (2023-06-13T17:55:39Z) - Regularizing with Pseudo-Negatives for Continual Self-Supervised Learning [62.40718385934608]
効果的な継続型自己教師型学習(CSSL)のためのPNR(Pseudo-Negative Regularization)フレームワークを提案する。
我々のPNRは,新たに学習した表現が過去の学習と矛盾しないように,モデルに基づく拡張によって得られた擬陰性情報を活用する。
論文 参考訳(メタデータ) (2023-06-08T10:59:35Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Asymmetric Polynomial Loss For Multi-Label Classification [24.67744795531103]
上記の問題を緩和する有効な非対称多項式損失(APL)を提案する。
非対称集束機構を用いて, 負試料および正試料からの勾配寄与を補正する。
実験の結果、APLの損失はトレーニングの余分な負担を伴わずに、継続的にパフォーマンスを向上できることがわかった。
論文 参考訳(メタデータ) (2023-04-10T14:35:47Z) - Asymmetric Loss Functions for Learning with Noisy Labels [82.50250230688388]
そこで本研究では,様々なノイズに対する雑音ラベルによる学習に頑健な,新しい損失関数,すなわちテクスティタ対称損失関数を提案する。
ベンチマークデータセットの実験結果は、非対称損失関数が最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-06-06T12:52:48Z) - A Symmetric Loss Perspective of Reliable Machine Learning [87.68601212686086]
平衡誤差率 (BER) の最小化において, 対称損失が破損ラベルからのロバストな分類をいかに生み出すかを検討する。
我々は、関連するキーワードからのみ学習したい問題において、AUC手法が自然言語処理にどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-01-05T06:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。