論文の概要: Rethinking Quadratic Regularizers: Explicit Movement Regularization for
Continual Learning
- arxiv url: http://arxiv.org/abs/2102.02805v1
- Date: Thu, 4 Feb 2021 18:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:18:49.869078
- Title: Rethinking Quadratic Regularizers: Explicit Movement Regularization for
Continual Learning
- Title(参考訳): 二次正規化の再考: 連続学習のための説明運動正規化
- Authors: Ekdeep Singh Lubana, Puja Trivedi, Robert P. Dick
- Abstract要約: 二次正則化器は、ディープニューラルネットワーク(DNN)における破滅的忘れを緩和するためにしばしば用いられる
モデルパラメータの現在の値と以前の値の間の重み付け平均を暗黙的に実行することにより、過去のタスクの忘れを防止する。
重み付き平均化の依存性を取り除くために2次正規化を修正した連続学習アルゴリズムである明示的運動規則化(EMR)を提案する。
- 参考スコア(独自算出の注目度): 3.885779089924737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quadratic regularizers are often used for mitigating catastrophic forgetting
in deep neural networks (DNNs), but are unable to compete with recent continual
learning methods. To understand this behavior, we analyze parameter updates
under quadratic regularization and demonstrate such regularizers prevent
forgetting of past tasks by implicitly performing a weighted average between
current and previous values of model parameters. Our analysis shows the
inferior performance of quadratic regularizers arises from (a) dependence of
weighted averaging on training hyperparameters, which often results in unstable
training and (b) assignment of lower importance to deeper layers, which are
generally the cause for forgetting in DNNs. To address these limitations, we
propose Explicit Movement Regularization (EMR), a continual learning algorithm
that modifies quadratic regularization to remove the dependence of weighted
averaging on training hyperparameters and uses a relative measure for
importance to avoid problems caused by lower importance assignment to deeper
layers. Compared to quadratic regularization, EMR achieves 6.2% higher average
accuracy and 4.5% lower average forgetting.
- Abstract(参考訳): 二次正則化器は、深層ニューラルネットワーク(dnn)における破滅的な忘れることの軽減によく用いられるが、最近の連続学習法と競合することができない。
本研究では,2次正規化の下でのパラメータ更新を解析し,モデルパラメータの現在の値と過去の値の重み付け平均を暗黙的に実行することにより,過去のタスクを忘れないようにする。
解析の結果, 2次正則化器の性能は, (a) 重み付き平均値のトレーニングハイパーパラメータ依存性から生じており, しばしば不安定なトレーニングとなり, (b) 深い層への重要性が低下する傾向がみられた。
そこで本研究では,重み付き平均化の学習ハイパーパラメータへの依存性を取り除き,より深い層への重要度の低い割り当てによる問題を回避するために相対的尺度を用いた,二次正規化を改良した連続学習アルゴリズムemrを提案する。
2次正規化と比較して、EMRは6.2%高い平均精度と4.5%低い平均忘れを達成する。
関連論文リスト
- Dissecting Deep RL with High Update Ratios: Combatting Value
Overestimation and Divergence [22.55105343651415]
本研究では,ネットワークパラメータをリセットすることなく,勾配更新回数が環境サンプル数よりはるかに多い設定で深層強化学習が学習可能であることを示す。
このような大規模な更新とデータの比率の下で、Nikishinら(2022年)による最近の研究は、エージェントが早期の相互作用と後期の体験に過度に適合する優先バイアスの出現を示唆している。
論文 参考訳(メタデータ) (2024-03-09T19:56:40Z) - Selective Learning: Towards Robust Calibration with Dynamic
Regularization [93.2503677723367]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - On double-descent in uncertainty quantification in overparametrized
models [24.073221004661427]
不確かさの定量化は、信頼性と信頼性のある機械学習における中心的な課題である。
最適正規化推定器のキャリブレーション曲線において, 分類精度とキャリブレーションのトレードオフを示す。
これは経験的ベイズ法とは対照的であり、高次一般化誤差と過度パラメトリゼーションにもかかわらず、我々の設定では十分に校正されていることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:01:08Z) - Automating Control of Overestimation Bias for Continuous Reinforcement
Learning [65.63607016094305]
バイアス補正を導くためのデータ駆動型手法を提案する。
我々は、最先端の連続制御アルゴリズムであるTrncated Quantile Criticsにおいて、その効果を実証する。
論文 参考訳(メタデータ) (2021-10-26T09:27:12Z) - Learning Prediction Intervals for Regression: Generalization and
Calibration [12.576284277353606]
不確実性定量のための回帰における予測間隔の生成について検討する。
我々は一般学習理論を用いて、リプシッツ連続性とVC-サブグラフクラスを含む最適性と実現可能性のトレードオフを特徴づける。
我々は既存のベンチマークと比べてテスト性能の点で、区間生成とキャリブレーションアルゴリズムの強みを実証的に示している。
論文 参考訳(メタデータ) (2021-02-26T17:55:30Z) - Precise Statistical Analysis of Classification Accuracies for
Adversarial Training [43.25761725062367]
この問題を治療するために、近年、様々な敵の訓練手順が提案されている。
我々は,逆向きに訓練されたミニマックスモデルの標準とロバストな精度を正確に評価する。
論文 参考訳(メタデータ) (2020-10-21T18:00:53Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - Understanding and Mitigating the Tradeoff Between Robustness and
Accuracy [88.51943635427709]
逆行訓練は、堅牢なエラーを改善するために、摂動でトレーニングセットを増強する。
拡張摂動が最適線形予測器からノイズのない観測を行う場合であっても,標準誤差は増大する可能性がある。
論文 参考訳(メタデータ) (2020-02-25T08:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。