論文の概要: Understanding the Role of Training Regimes in Continual Learning
- arxiv url: http://arxiv.org/abs/2006.06958v1
- Date: Fri, 12 Jun 2020 06:00:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 01:55:52.169281
- Title: Understanding the Role of Training Regimes in Continual Learning
- Title(参考訳): 継続的な学習における指導要領の役割の理解
- Authors: Seyed Iman Mirzadeh, Mehrdad Farajtabar, Razvan Pascanu, Hassan
Ghasemzadeh
- Abstract要約: 破滅的な忘れは、ニューラルネットワークのトレーニングに影響を与え、複数のタスクを逐次学習する能力を制限する。
本研究では,タスクの局所的なミニマを拡大するトレーニング体制の形成に及ぼすドロップアウト,学習速度の低下,バッチサイズの影響について検討した。
- 参考スコア(独自算出の注目度): 51.32945003239048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Catastrophic forgetting affects the training of neural networks, limiting
their ability to learn multiple tasks sequentially. From the perspective of the
well established plasticity-stability dilemma, neural networks tend to be
overly plastic, lacking the stability necessary to prevent the forgetting of
previous knowledge, which means that as learning progresses, networks tend to
forget previously seen tasks. This phenomenon coined in the continual learning
literature, has attracted much attention lately, and several families of
approaches have been proposed with different degrees of success. However, there
has been limited prior work extensively analyzing the impact that different
training regimes -- learning rate, batch size, regularization method-- can have
on forgetting. In this work, we depart from the typical approach of altering
the learning algorithm to improve stability. Instead, we hypothesize that the
geometrical properties of the local minima found for each task play an
important role in the overall degree of forgetting. In particular, we study the
effect of dropout, learning rate decay, and batch size, on forming training
regimes that widen the tasks' local minima and consequently, on helping it not
to forget catastrophically. Our study provides practical insights to improve
stability via simple yet effective techniques that outperform alternative
baselines.
- Abstract(参考訳): 破滅的な忘れは、ニューラルネットワークのトレーニングに影響を与え、複数のタスクを逐次学習する能力を制限する。
十分に確立された可塑性-安定性ジレンマの観点からすると、ニューラルネットワークは過度に可塑性であり、過去の知識を忘れるのを防ぐために必要な安定性が欠如している。
この現象は連続学習文学に端を発し、近年多くの注目を集め、成功度が異なるいくつかのアプローチが提案されている。
しかしながら、さまざまなトレーニング体制 – 学習率、バッチサイズ、正規化メソッド – が、忘れることに与える影響を幅広く分析する以前の作業は限られていた。
本研究では,学習アルゴリズムを改良して安定性を向上させるという典型的なアプローチから脱却する。
代わりに、各タスクで見つかった局所ミニマの幾何学的性質が、全体的な忘れやすさにおいて重要な役割を果たすと仮定する。
特に,ドロップアウト,学習率減衰,バッチサイズがタスクの局所的ミニマを広めるトレーニングレジームの形成に及ぼす影響について検討し,その結果,破滅的に忘れないよう支援する。
本研究は,代替ベースラインに匹敵する単純かつ効果的な手法により,安定性を向上させるための実践的洞察を提供する。
関連論文リスト
- Normalization and effective learning rates in reinforcement learning [52.59508428613934]
正規化層は近年,深層強化学習と連続学習文学においてルネッサンスを経験している。
正規化は、ネットワークパラメータのノルムにおける成長と効果的な学習速度における崩壊の間の等価性という、微妙だが重要な副作用をもたらすことを示す。
そこで本研究では,正規化・プロジェクトと呼ぶ単純な再パラメータ化により,学習率を明示的にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:58:01Z) - Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - Keep Moving: identifying task-relevant subspaces to maximise plasticity for newly learned tasks [0.22499166814992438]
継続学習アルゴリズムは、事前情報を保持しながら、新しい知識を獲得しようとする。
これらのアルゴリズムは、しばしば安定性を強調し、新しいタスクを学習する際のネットワーク更新を制限する。
しかし、すべては有害か?
本稿では,ニューラルネットワークの活性化空間を2つの部分空間に分解できることを提案する。
論文 参考訳(メタデータ) (2023-10-07T08:54:43Z) - Continual Learning by Modeling Intra-Class Variation [33.30614232534283]
データやタスクがシーケンシャルに提示された場合、ニューラルネットワークはパフォーマンスが悪くなっていることが観察されている。
人間とは異なり、ニューラルネットワークは破滅的な忘れ込みに悩まされており、生涯学習することは不可能である。
本稿では,記憶に基づく連続学習について検討し,大惨な忘れ込みを避けるためには,表現空間の大規模な変動が不可欠であることを確認した。
論文 参考訳(メタデータ) (2022-10-11T12:17:43Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - An Empirical Investigation of the Role of Pre-training in Lifelong
Learning [21.995593026269578]
複数のタスクを逐次学習する際の破滅的忘れの影響を,ジェネリック事前学習が暗黙的に軽減することを示す。
本研究では、この現象を損失景観を解析し、トレーニング済みの重みがより広いミニマへと導くことで忘れやすいように見えることを明らかにする。
論文 参考訳(メタデータ) (2021-12-16T19:00:55Z) - Continual Learning with Neuron Activation Importance [1.7513645771137178]
連続学習は、複数のシーケンシャルなタスクを伴うオンライン学習の概念である。
連続学習の重要な障壁の1つは、ネットワークが古いタスクのデータにアクセスせずに古いタスクの知識を保持する新しいタスクを学習すべきである。
本稿では,タスクの順序によらず,安定な連続学習のためのニューロン活性化重要度に基づく正規化手法を提案する。
論文 参考訳(メタデータ) (2021-07-27T08:09:32Z) - Few-shot Continual Learning: a Brain-inspired Approach [34.306678703379944]
数ショット連続学習(FSCL)に関する最初の体系的研究を行い、ディープニューラルネットワークによる効果的なソリューションを提示します。
我々のソリューションは、タスクシーケンスの連続学習が必然的に少数の一般化を妨げるという観察に基づいている。
我々はロバストな脳システムからインスピレーションを得て,(1)メタ可塑性と高速/遅いシナプスの生物学的モデルに触発された,連続学習と少数ショット学習のための2つの高速/遅い重みを相互に更新する手法を開発し,(2)タスクシーケンスを忘れることなく学習するために,脳にインスパイアされた2段階統合戦略を適用した。
論文 参考訳(メタデータ) (2021-04-19T03:40:48Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。