論文の概要: Regularization in neural network optimization via trimmed stochastic
gradient descent with noisy label
- arxiv url: http://arxiv.org/abs/2012.11073v1
- Date: Mon, 21 Dec 2020 01:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 11:34:25.950054
- Title: Regularization in neural network optimization via trimmed stochastic
gradient descent with noisy label
- Title(参考訳): 雑音ラベル付きトリミング確率勾配降下によるニューラルネットワーク最適化の正則化
- Authors: Kensuke Nakamura and Byung-Woo Hong
- Abstract要約: 正規化は、ニューラルネットワークの最適化におけるデータトレーニングへの過度な適合を回避するために不可欠です。
ラベルノイズとトリミングの例を組み合わせた第1次最適化法(Label-Noised Trim-SGD)を提案する。
提案アルゴリズムにより,ラベルの大きいノイズを付加し,元の手法よりも優れた正規化効果が得られる。
- 参考スコア(独自算出の注目度): 2.66512000865131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Regularization is essential for avoiding over-fitting to training data in
neural network optimization, leading to better generalization of the trained
networks. The label noise provides a strong implicit regularization by
replacing the target ground truth labels of training examples by uniform random
labels. However, it may also cause undesirable misleading gradients due to the
large loss associated with incorrect labels. We propose a first-order
optimization method (Label-Noised Trim-SGD) which combines the label noise with
the example trimming in order to remove the outliers. The proposed algorithm
enables us to impose a large label noise and obtain a better regularization
effect than the original methods. The quantitative analysis is performed by
comparing the behavior of the label noise, the example trimming, and the
proposed algorithm. We also present empirical results that demonstrate the
effectiveness of our algorithm using the major benchmarks and the fundamental
networks, where our method has successfully outperformed the state-of-the-art
optimization methods.
- Abstract(参考訳): ニューラルネットワーク最適化において、トレーニングデータの過度な適合を避けるためには、正規化が不可欠である。
ラベルノイズは、トレーニング例のターゲットとなる真実ラベルを均一なランダムラベルに置き換えることで、強い暗黙の正規化を提供する。
しかし、不正確なラベルによる大きな損失のために、望ましくない誤解を招く勾配を引き起こすこともある。
本稿では,ラベルノイズとサンプルトリミングを組み合わせた1次最適化手法(Label-Noised Trim-SGD)を提案する。
提案アルゴリズムにより,ラベルの大きいノイズを付加し,元の手法よりも優れた正規化効果が得られる。
ラベルノイズの挙動,サンプルトリミング,提案アルゴリズムを比較して定量的解析を行った。
また,本手法が最先端最適化手法を上回った主要なベンチマークと基本ネットワークを用いて,アルゴリズムの有効性を示す実験結果を示す。
関連論文リスト
- Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Robust Training under Label Noise by Over-parameterization [41.03008228953627]
本稿では,トレーニングラベルの比率が低下した分類タスクにおいて,過パラメータ化深層ネットワークの堅牢なトレーニングを行うための原則的手法を提案する。
ラベルノイズはクリーンデータから学んだネットワークと疎結合なので、ノイズをモデル化してデータから分離することを学びます。
注目すべきは、このような単純な手法を用いて訓練を行う場合、様々な実データに対してラベルノイズに対する最先端のテスト精度を示すことである。
論文 参考訳(メタデータ) (2022-02-28T18:50:10Z) - Interpolation-based Contrastive Learning for Few-Label Semi-Supervised
Learning [43.51182049644767]
半教師付き学習(SSL)は,ラベルが限定された強力なモデルを構築する上で,有効な手法であることが長年証明されてきた。
摂動サンプルを元のものと類似した予測を強制する正規化に基づく手法が注目されている。
本稿では,学習ネットワークの埋め込みを誘導し,サンプル間の線形変化を誘導する新たな対照的な損失を提案する。
論文 参考訳(メタデータ) (2022-02-24T06:00:05Z) - Optimizing Diffusion Rate and Label Reliability in a Graph-Based
Semi-supervised Classifier [2.4366811507669124]
Local and Global Consistency (LGC)アルゴリズムは、グラフベースの半教師付き半教師付き(GSSL)分類器の1つである。
ラベル付きインスタンスの自己影響を取り除くことは、どのように有用か、そして、それがアウト・ワン・アウトエラーにどのように関係するかについて議論する。
本研究では,ラベルの信頼性と拡散率を推定する手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T16:58:52Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。