論文の概要: Learning Adaptive Loss for Robust Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2002.06482v1
- Date: Sun, 16 Feb 2020 00:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 17:41:41.445163
- Title: Learning Adaptive Loss for Robust Learning with Noisy Labels
- Title(参考訳): 雑音ラベルを用いたロバスト学習のための学習適応損失
- Authors: Jun Shu, Qian Zhao, Keyu Chen, Zongben Xu, Deyu Meng
- Abstract要約: ロバスト損失は、堅牢な学習問題を扱うための重要な戦略である。
本稿では,強靭なハイパーチューニングが可能なメタ学習手法を提案する。
4種類のSOTA損失関数は, 最小化, 一般利用, 有効性を示す。
- 参考スコア(独自算出の注目度): 59.06189240645958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust loss minimization is an important strategy for handling robust
learning issue on noisy labels. Current robust loss functions, however,
inevitably involve hyperparameter(s) to be tuned, manually or heuristically
through cross validation, which makes them fairly hard to be generally applied
in practice. Besides, the non-convexity brought by the loss as well as the
complicated network architecture makes it easily trapped into an unexpected
solution with poor generalization capability. To address above issues, we
propose a meta-learning method capable of adaptively learning hyperparameter in
robust loss functions. Specifically, through mutual amelioration between robust
loss hyperparameter and network parameters in our method, both of them can be
simultaneously finely learned and coordinated to attain solutions with good
generalization capability. Four kinds of SOTA robust loss functions are
attempted to be integrated into our algorithm, and comprehensive experiments
substantiate the general availability and effectiveness of the proposed method
in both its accuracy and generalization performance, as compared with
conventional hyperparameter tuning strategy, even with carefully tuned
hyperparameters.
- Abstract(参考訳): ロバスト損失最小化は、雑音ラベルの堅牢な学習問題を扱うための重要な戦略である。
しかしながら、現在のロバストな損失関数は、必然的に、クロスバリデーションを通じて手動またはヒューリスティックに調整されるハイパーパラメータ(s)を伴っているため、実際は適用するのがかなり困難である。
さらに、損失によってもたらされる非凸性と複雑なネットワークアーキテクチャにより、一般化能力の乏しい予期せぬソリューションに簡単に閉じ込められる。
そこで本研究では,ロバストな損失関数でハイパーパラメータを適応的に学習できるメタラーニング手法を提案する。
具体的には,本手法におけるロバスト損失ハイパーパラメータとネットワークパラメータの相互改善により,両者を同時に学習し協調することで,解の一般化能力を高めることができる。
4種類のsotaロバスト損失関数をアルゴリズムに統合し,提案手法の汎用性と有効性について,従来のハイパーパラメータチューニング手法と比較して,注意深く調整したハイパーパラメータにおいても検証した。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Noise-Robust Loss Functions: Enhancing Bounded Losses for Large-Scale Noisy Data Learning [0.0]
大きな注釈付きデータセットには、必然的にノイズのあるラベルが含まれており、ラベルを覚えやすいようにディープニューラルネットワークをトレーニングする上で大きな課題となる。
ノイズ・ロバスト損失関数はこの問題に対処するための重要な戦略として現れてきたが、過度に適合しないロバスト損失関数を作成することは依然として困難である。
本稿では,ロジットバイアス(logit bias)と表される新しい手法を提案し,ロジットに正しいクラスの位置で実数$epsilon$を付加する。
論文 参考訳(メタデータ) (2023-06-08T18:38:55Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Efficient Hyperparameter Tuning for Large Scale Kernel Ridge Regression [19.401624974011746]
本稿では,データ依存型ペナルティに基づく複雑性正規化基準を提案し,その効率的な最適化について議論する。
提案手法の利点は,大規模カーネル手法のライブラリに組み込んで,適応的に調整されたソリューションを導出することにある。
論文 参考訳(メタデータ) (2022-01-17T09:57:32Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax
Problems [80.46370778277186]
大規模凸凹型ミニマックス問題は、ゲーム理論、堅牢なトレーニング、生成的敵ネットワークのトレーニングなど、多くの応用で発生する。
通信効率のよい分散外グレードアルゴリズムであるLocalAdaSientを開発した。
サーバモデル。
等質な環境と異質な環境の両方において,その有効性を実証する。
論文 参考訳(メタデータ) (2021-06-18T09:42:05Z) - Robust Learning via Persistency of Excitation [4.674053902991301]
勾配勾配勾配を用いたネットワークトレーニングは力学系パラメータ推定問題と等価であることを示す。
極値理論を用いて対応するリプシッツ定数を推定する効率的な手法を提案する。
我々の手法は、様々な最先端の対数訓練モデルにおいて、対数精度を0.1%から0.3%に普遍的に向上させる。
論文 参考訳(メタデータ) (2021-06-03T18:49:05Z) - Efficient Hyperparameter Tuning with Dynamic Accuracy Derivative-Free
Optimization [0.27074235008521236]
我々は,最近の動的精度微分自由最適化法をハイパーパラメータチューニングに適用する。
この方法は、収束保証を維持しながら、学習問題の不正確な評価を可能にする。
固定精度アプローチと比較して頑健さと効率性を実証する。
論文 参考訳(メタデータ) (2020-11-06T00:59:51Z) - PACOH: Bayes-Optimal Meta-Learning with PAC-Guarantees [77.67258935234403]
PAC-Bayesianフレームワークを用いた理論的解析を行い、メタ学習のための新しい一般化境界を導出する。
我々は、性能保証と原則付きメタレベル正規化を備えたPAC最適メタ学習アルゴリズムのクラスを開発する。
論文 参考訳(メタデータ) (2020-02-13T15:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。