論文の概要: Keep Moving: identifying task-relevant subspaces to maximise plasticity
for newly learned tasks
- arxiv url: http://arxiv.org/abs/2310.04741v5
- Date: Fri, 16 Feb 2024 13:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 20:20:21.339174
- Title: Keep Moving: identifying task-relevant subspaces to maximise plasticity
for newly learned tasks
- Title(参考訳): Keep Keep: 学習したタスクの可塑性を最大化するタスク関連部分空間の同定
- Authors: Daniel Anthes and Sushrut Thorat and Peter K\"onig and Tim C.
Kietzmann
- Abstract要約: 継続学習アルゴリズムは、事前情報を保持しながら、新しい知識を獲得しようとする。
これらのアルゴリズムは、しばしば安定性を強調し、新しいタスクを学習する際のネットワーク更新を制限する。
多くの場合、そのような制約はモデルの可塑性、すなわち新しいタスクの要求に適応するモデルの能力にコストがかかる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning algorithms strive to acquire new knowledge while
preserving prior information. Often, these algorithms emphasise stability and
restrict network updates upon learning new tasks. In many cases, such
restrictions come at a cost to the model's plasticity, i.e. the model's ability
to adapt to the requirements of a new task. But is all change detrimental?
Here, we approach this question by proposing that activation spaces in neural
networks can be decomposed into two subspaces: a readout range in which change
affects prior tasks and a null space in which change does not alter prior
performance. Based on experiments with this novel technique, we show that,
indeed, not all activation change is associated with forgetting. Instead, the
only change in the subspace visible to the readout of a task can lead to
decreased stability, while restricting change outside of this subspace is
associated only with a loss of plasticity. Analysing various commonly used
algorithms, we show that regularisation-based techniques do not fully
disentangle the two spaces and, as a result, restrict plasticity more than need
be. We expand our results by investigating a linear model in which we can
manipulate learning in the two subspaces directly and thus causally link
activation changes to stability and plasticity. For hierarchical, nonlinear
cases, we present an approximation that enables us to estimate functionally
relevant subspaces at every layer of a deep nonlinear network, corroborating
our previous insights. Together, this work provides novel means to derive
insights into the mechanisms behind stability and plasticity in continual
learning and may serve as a diagnostic tool to guide developments of future
continual learning algorithms that stabilise inference while allowing maximal
space for learning.
- Abstract(参考訳): 連続学習アルゴリズムは、事前情報を保存しながら新しい知識を得ようとする。
これらのアルゴリズムは、しばしば安定性を強調し、新しいタスクを学習する際のネットワーク更新を制限する。
多くの場合、そのような制約はモデルの可塑性、すなわち新しいタスクの要求に適応するモデルの能力にコストがかかる。
しかし、すべては有害か?
本稿では、ニューラルネットワークにおけるアクティベーション空間を2つのサブスペースに分解できる、すなわち、変更が前のタスクに影響を及ぼす読み出し範囲と、変更が前のパフォーマンスを変えないヌル空間の2つに分解できる、という問題にアプローチする。
この手法を用いた実験の結果,すべてのアクティベーション変化が忘れることと関連しているわけではないことが判明した。
代わりに、タスクの読み出しで見える部分空間の唯一の変化は安定性を低下させるが、この部分空間の外の変化を制限することは可塑性の喪失にのみ関連付けられる。
様々な一般的なアルゴリズムを分析し、正規化に基づく手法が2つの空間を完全に解き放たず、その結果、必要以上に可塑性を制限していることを示す。
我々は,2つの部分空間で直接学習を操作できる線形モデルを調査し,活性化変化を安定性と可塑性に因果的に関連付けることにより,結果を拡大する。
階層的,非線形の場合については,関数的に関連する部分空間を深層非線形ネットワークの各層で推定し,これまでの知見を裏付ける近似を提示する。
この研究は、連続学習における安定性と塑性の背後にあるメカニズムに関する洞察を導き出す新しい手段を提供し、学習のための最大空間を許容しながら推論を安定化する将来の連続学習アルゴリズムの開発を導く診断ツールとして機能する。
関連論文リスト
- Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - IF2Net: Innately Forgetting-Free Networks for Continual Learning [49.57495829364827]
継続的な学習は、以前に学んだ知識に干渉することなく、新しい概念を漸進的に吸収することができる。
ニューラルネットワークの特性に触発され,本研究は,IF2Net(Innately Forgetting-free Network)の設計方法について検討した。
IF2Netは、1つのネットワークがテスト時にタスクのIDを告げることなく、本質的に無制限のマッピングルールを学習することを可能にする。
論文 参考訳(メタデータ) (2023-06-18T05:26:49Z) - Achieving a Better Stability-Plasticity Trade-off via Auxiliary Networks
in Continual Learning [23.15206507040553]
本稿では、ニューラルネットワークに現在の課題を学習する能力を持たせるために、補助的ネットワーク継続学習(ANCL)を提案する。
ANCLは、主に安定性に焦点を当てた継続的な学習モデルに可塑性を促進する補助ネットワークを付加する。
より具体的には、提案するフレームワークは、可塑性と安定性を自然に補間する正規化器として実現されている。
論文 参考訳(メタデータ) (2023-03-16T17:00:42Z) - Balancing Stability and Plasticity through Advanced Null Space in
Continual Learning [77.94570903726856]
我々は,従来のタスクの古いデータを格納することなく,安定性と可塑性のバランスをとるために,新しい連続学習手法Advanced Null Space(AdNS)を提案する。
また,現在のタスクの性能向上を図るため,タスク内蒸留を簡便かつ効果的に行う方法を提案する。
実験結果から,提案手法は最先端の連続学習手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2022-07-25T11:04:22Z) - Entropy-based Stability-Plasticity for Lifelong Learning [17.40355682488805]
本稿では,ニューラルネットワークの安定性・塑性ジレンマに対処するために,エントロピーに基づく安定塑性(ESP)を提案する。
当社のアプローチでは,塑性係数を用いて各モデル層をどの程度変更すべきかを動的に決定できる。
場合によっては、トレーニング中にレイヤを凍結することで、トレーニングのスピードアップにつながる場合もある。
論文 参考訳(メタデータ) (2022-04-18T22:58:49Z) - Sparsity and Heterogeneous Dropout for Continual Learning in the Null
Space of Neural Activations [36.24028295650668]
非定常的な入力データストリームからの連続的/長期的学習は知性の基盤である。
ディープニューラルネットワークは、新しいものを学ぶ際に、これまで学んだ情報を忘れる傾向がある。
近年、ディープニューラルネットワークにおける破滅的な忘れを乗り越えることが、研究の活発な分野となっている。
論文 参考訳(メタデータ) (2022-03-12T21:12:41Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Understanding the Role of Training Regimes in Continual Learning [51.32945003239048]
破滅的な忘れは、ニューラルネットワークのトレーニングに影響を与え、複数のタスクを逐次学習する能力を制限する。
本研究では,タスクの局所的なミニマを拡大するトレーニング体制の形成に及ぼすドロップアウト,学習速度の低下,バッチサイズの影響について検討した。
論文 参考訳(メタデータ) (2020-06-12T06:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。