論文の概要: Faster Meta Update Strategy for Noise-Robust Deep Learning
- arxiv url: http://arxiv.org/abs/2104.15092v1
- Date: Fri, 30 Apr 2021 16:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 13:48:21.826043
- Title: Faster Meta Update Strategy for Noise-Robust Deep Learning
- Title(参考訳): ノイズロスト深層学習のための高速メタ更新戦略
- Authors: Youjiang Xu, Linchao Zhu, Lu Jiang, Yi Yang
- Abstract要約: 我々は,メタグラデーションの最も高価なステップをより高速なレイヤワイズ近似に置き換えるために,新しいファMUS(Faster Meta Update Strategy)を導入する。
本手法は,同等あるいはさらに優れた一般化性能を維持しつつ,トレーニング時間の3分の2を節約できることを示す。
- 参考スコア(独自算出の注目度): 62.08964100618873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been shown that deep neural networks are prone to overfitting on
biased training data. Towards addressing this issue, meta-learning employs a
meta model for correcting the training bias. Despite the promising
performances, super slow training is currently the bottleneck in the meta
learning approaches. In this paper, we introduce a novel Faster Meta Update
Strategy (FaMUS) to replace the most expensive step in the meta gradient
computation with a faster layer-wise approximation. We empirically find that
FaMUS yields not only a reasonably accurate but also a low-variance
approximation of the meta gradient. We conduct extensive experiments to verify
the proposed method on two tasks. We show our method is able to save two-thirds
of the training time while still maintaining the comparable or achieving even
better generalization performance. In particular, our method achieves the
state-of-the-art performance on both synthetic and realistic noisy labels, and
obtains promising performance on long-tailed recognition on standard
benchmarks.
- Abstract(参考訳): ディープニューラルネットワークはバイアス付きトレーニングデータに過度に適合する傾向があることが示されている。
この問題に対処するために,メタ学習では,トレーニングバイアスの修正にメタモデルを採用している。
有望なパフォーマンスにもかかわらず、super slow trainingは現在、メタ学習アプローチのボトルネックとなっている。
本稿では,メタグラデーション計算における最も費用のかかるステップを,より高速な層別近似に置き換える,新しい高速メタ更新戦略(famus)を提案する。
実験により, FaMUS は合理的な精度だけでなく, メタ勾配の低分散近似も得られることがわかった。
提案手法を2つのタスクで検証するための広範囲な実験を行った。
本手法は,同等あるいはさらに優れた一般化性能を維持しつつ,トレーニング時間の3分の2を節約できることを示す。
特に,本手法は,合成および現実的な雑音ラベル上での最先端性能を実現し,標準ベンチマーク上での長期認識において有望な性能を得る。
関連論文リスト
- FREE: Faster and Better Data-Free Meta-Learning [77.90126669914324]
Data-Free Meta-Learning (DFML) は、トレーニング済みモデルのコレクションから、元のデータを必要としない知識を抽出することを目的としている。
i)事前訓練されたモデルからトレーニングタスクを迅速に回復するためのメタジェネレータ,(ii)新しい未知のタスクに一般化するためのメタラーナーを含む、より高速で優れたデータフリーなメタラーニングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-05-02T03:43:19Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - One Step at a Time: Pros and Cons of Multi-Step Meta-Gradient
Reinforcement Learning [61.662504399411695]
より正確でロバストなメタ勾配信号を持つ複数の内部ステップを混合する新しい手法を提案する。
Snakeゲームに適用した場合、混合メタグラディエントアルゴリズムは、類似または高い性能を達成しつつ、その分散を3倍に削減することができる。
論文 参考訳(メタデータ) (2021-10-30T08:36:52Z) - Accelerating Gradient-based Meta Learner [2.1349209400003932]
我々は,MAML (Model Agnostic Meta Learning) などのメタ学習アルゴリズムを高速化する様々なアクセラレーション手法を提案する。
本稿では,メタ学習プロセスの高速化だけでなく,モデルの精度向上にも寄与する,クラスタ内でのトレーニングタスクの新たな方法を提案する。
論文 参考訳(メタデータ) (2021-10-27T14:27:36Z) - Adapting Stepsizes by Momentumized Gradients Improves Optimization and
Generalization [89.66571637204012]
textscAdaMomentum on vision, and achieves state-the-art results on other task including language processing。
textscAdaMomentum on vision, and achieves state-the-art results on other task including language processing。
textscAdaMomentum on vision, and achieves state-the-art results on other task including language processing。
論文 参考訳(メタデータ) (2021-06-22T03:13:23Z) - A contrastive rule for meta-learning [1.3124513975412255]
メタ学習アルゴリズムは、一連のタスクに存在する正規性を活用して、補助学習プロセスのパフォーマンスを高速化し改善する。
平衡伝播に基づく勾配に基づくメタラーニングアルゴリズムを提案する。
我々は、その性能に関する理論的境界を確立し、標準ベンチマークとニューラルネットワークアーキテクチャのセットで実験を行う。
論文 参考訳(メタデータ) (2021-04-04T19:45:41Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Gradient-EM Bayesian Meta-learning [6.726255259929496]
ベイズメタラーニングの背後にある主要なアイデアは、階層的モデルのベイズ推論を経験的に行うことである。
本研究では、このフレームワークを様々な既存手法に拡張し、勾配-EMアルゴリズムに基づく変種を提案する。
正弦波回帰, 少数ショット画像分類, およびポリシーに基づく強化学習実験により, 本手法は計算コストを抑えて精度を向上するだけでなく, 不確実性に対しても頑健であることが示された。
論文 参考訳(メタデータ) (2020-06-21T10:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。