論文の概要: Asymmetric Loss Functions for Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2106.03110v1
- Date: Sun, 6 Jun 2021 12:52:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-13 17:34:10.582569
- Title: Asymmetric Loss Functions for Learning with Noisy Labels
- Title(参考訳): 雑音ラベル学習のための非対称損失関数
- Authors: Xiong Zhou, Xianming Liu, Junjun Jiang, Xin Gao, Xiangyang Ji
- Abstract要約: そこで本研究では,様々なノイズに対する雑音ラベルによる学習に頑健な,新しい損失関数,すなわちテクスティタ対称損失関数を提案する。
ベンチマークデータセットの実験結果は、非対称損失関数が最先端の手法より優れていることを示した。
- 参考スコア(独自算出の注目度): 82.50250230688388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust loss functions are essential for training deep neural networks with
better generalization power in the presence of noisy labels. Symmetric loss
functions are confirmed to be robust to label noise. However, the symmetric
condition is overly restrictive. In this work, we propose a new class of loss
functions, namely \textit{asymmetric loss functions}, which are robust to
learning with noisy labels for various types of noise. We investigate general
theoretical properties of asymmetric loss functions, including classification
calibration, excess risk bound, and noise tolerance. Meanwhile, we introduce
the asymmetry ratio to measure the asymmetry of a loss function. The empirical
results show that a higher ratio would provide better noise tolerance.
Moreover, we modify several commonly-used loss functions and establish the
necessary and sufficient conditions for them to be asymmetric. Experimental
results on benchmark datasets demonstrate that asymmetric loss functions can
outperform state-of-the-art methods. The code is available at
\href{https://github.com/hitcszx/ALFs}{https://github.com/hitcszx/ALFs}
- Abstract(参考訳): ロバストな損失関数は、ノイズラベルの存在下でより一般化力のあるディープニューラルネットワークのトレーニングに不可欠である。
対称損失関数はラベルノイズに対して頑健であることが確認される。
しかし、対称条件は過度に制限的である。
そこで本研究では,様々なノイズに対するノイズラベルを用いた学習に頑健な,新しい損失関数のクラスである「textit{asymmetric loss function」を提案する。
分類校正,過剰リスク境界,耐雑音性を含む非対称損失関数の一般理論的特性について検討する。
一方,損失関数の非対称性を測定するために非対称性比を導入する。
実験の結果,高い比では耐雑音性が向上することがわかった。
さらに,よく使われる損失関数をいくつか修正し,それらの非対称化に必要な十分条件を定式化する。
ベンチマークデータセットの実験的結果は、非対称損失関数が最先端のメソッドを上回ることを示している。
コードは \href{https://github.com/hitcszx/ALFs}{https://github.com/hitcszx/ALFs} で公開されている。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - EnsLoss: Stochastic Calibrated Loss Ensembles for Preventing Overfitting in Classification [1.3778851745408134]
経験的リスク最小化フレームワーク内で損失関数を結合する新しいアンサンブル手法,すなわちEnsLossを提案する。
まず、損失のCC条件を損失導関数に変換し、明示的な損失関数の必要性を回避した。
理論的には、我々のアプローチの統計的一貫性を確立し、その利点に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-09-02T02:40:42Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Noise-Robust Loss Functions: Enhancing Bounded Losses for Large-Scale Noisy Data Learning [0.0]
大きな注釈付きデータセットには、必然的にノイズのあるラベルが含まれており、ラベルを覚えやすいようにディープニューラルネットワークをトレーニングする上で大きな課題となる。
ノイズ・ロバスト損失関数はこの問題に対処するための重要な戦略として現れてきたが、過度に適合しないロバスト損失関数を作成することは依然として困難である。
本稿では,ロジットバイアス(logit bias)と表される新しい手法を提案し,ロジットに正しいクラスの位置で実数$epsilon$を付加する。
論文 参考訳(メタデータ) (2023-06-08T18:38:55Z) - Do We Need to Penalize Variance of Losses for Learning with Label Noise? [91.38888889609002]
ノイズラベルを用いた学習では,差分を増大させる必要がある。
ラベルノイズ遷移行列を利用することで、正規化器は損失の分散を低減することができる。
実験的に,損失の分散を増大させることにより,合成データセットと実世界のデータセットのベースラインの一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2022-01-30T06:19:08Z) - Learning with Noisy Labels via Sparse Regularization [76.31104997491695]
ノイズの多いラベルで学習することは、正確なディープニューラルネットワークをトレーニングするための重要なタスクである。
クロスエントロピー(Cross Entropy, CE)など、一般的に使われている損失関数は、ノイズラベルへの過度なオーバーフィットに悩まされている。
我々は, スパース正規化戦略を導入し, ワンホット制約を近似する。
論文 参考訳(メタデータ) (2021-07-31T09:40:23Z) - An Exploration into why Output Regularization Mitigates Label Noise [0.0]
騒音のロバストな損失は、ラベルノイズを扱うためのより有望なアプローチの1つである。
ラベル平滑化やエントロピーといった出力正規化項を含む損失は、正規化係数が無限大になるにつれて対称になることを示す。
論文 参考訳(メタデータ) (2021-04-26T11:16:30Z) - A Symmetric Loss Perspective of Reliable Machine Learning [87.68601212686086]
平衡誤差率 (BER) の最小化において, 対称損失が破損ラベルからのロバストな分類をいかに生み出すかを検討する。
我々は、関連するキーワードからのみ学習したい問題において、AUC手法が自然言語処理にどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-01-05T06:25:47Z) - Normalized Loss Functions for Deep Learning with Noisy Labels [39.32101898670049]
一般的に使用されているCross Entropy(CE)損失は,ノイズラベルに対して堅牢ではないことを示す。
アクティブ・パッシブ・ロス(APL)と呼ばれるロバストな損失関数を構築するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-24T08:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。