論文の概要: AFEC: Active Forgetting of Negative Transfer in Continual Learning
- arxiv url: http://arxiv.org/abs/2110.12187v1
- Date: Sat, 23 Oct 2021 10:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 16:32:30.791971
- Title: AFEC: Active Forgetting of Negative Transfer in Continual Learning
- Title(参考訳): AFEC: 継続的な学習における否定的伝達のアクティブ・フォーミング
- Authors: Liyuan Wang, Mingtian Zhang, Zhongfan Jia, Qian Li, Chenglong Bao,
Kaisheng Ma, Jun Zhu, Yi Zhong
- Abstract要約: 生物学的ニューラルネットワークは、新しい経験の学習と矛盾する古い知識を積極的に忘れることができることを示す。
生物の能動的忘れをきっかけに,新たな課題の学習を制限し,継続的な学習に役立てる古い知識を積極的に忘れることを提案する。
- 参考スコア(独自算出の注目度): 37.03139674884091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning aims to learn a sequence of tasks from dynamic data
distributions. Without accessing to the old training samples, knowledge
transfer from the old tasks to each new task is difficult to determine, which
might be either positive or negative. If the old knowledge interferes with the
learning of a new task, i.e., the forward knowledge transfer is negative, then
precisely remembering the old tasks will further aggravate the interference,
thus decreasing the performance of continual learning. By contrast, biological
neural networks can actively forget the old knowledge that conflicts with the
learning of a new experience, through regulating the learning-triggered
synaptic expansion and synaptic convergence. Inspired by the biological active
forgetting, we propose to actively forget the old knowledge that limits the
learning of new tasks to benefit continual learning. Under the framework of
Bayesian continual learning, we develop a novel approach named Active
Forgetting with synaptic Expansion-Convergence (AFEC). Our method dynamically
expands parameters to learn each new task and then selectively combines them,
which is formally consistent with the underlying mechanism of biological active
forgetting. We extensively evaluate AFEC on a variety of continual learning
benchmarks, including CIFAR-10 regression tasks, visual classification tasks
and Atari reinforcement tasks, where AFEC effectively improves the learning of
new tasks and achieves the state-of-the-art performance in a plug-and-play way.
- Abstract(参考訳): 継続的学習は、動的データ分布からタスクのシーケンスを学ぶことを目的としている。
古いトレーニングサンプルにアクセスできないと、古いタスクから新しいタスクへの知識の転送は決定が難しくなり、正か負かのどちらかになる可能性がある。
もし古い知識が新しいタスク、すなわち前方の知識伝達が負の学習に干渉した場合、古いタスクを正確に記憶することは干渉をさらに悪化させ、継続的な学習のパフォーマンスを低下させる。
対照的に、生物学的ニューラルネットワークは、学習トリガーによるシナプス拡大とシナプス収束を調節することで、新しい経験の学習と矛盾する古い知識を積極的に忘れることができる。
生物の能動的忘れをきっかけに,新たな課題の学習を制限し,継続的な学習に役立てる古い知識を積極的に忘れることを提案する。
ベイズ連続学習の枠組みの下で, シナプス拡張収束(AFEC)を用いたアクティブフォーッティングという新しい手法を開発した。
提案手法はパラメータを動的に拡張し,新しいタスクを学習し,それを選択的に結合する。
我々は、CIFAR-10回帰タスク、視覚分類タスク、アタリ強化タスクなど、さまざまな連続学習ベンチマークにおいてAFECを広範囲に評価し、AFECは、新しいタスクの学習を効果的に改善し、プラグアンドプレイ方式で最先端のパフォーマンスを達成する。
関連論文リスト
- Lifelong Sequence Generation with Dynamic Module Expansion and
Adaptation [39.886149621730915]
寿命シーケンス生成(LSG)は、連続した世代タスクに基づいてモデルを継続的に訓練し、常に新しい世代パターンを学ぶことを目的としている。
人間の学習パラダイムにヒントを得て,動的モジュール拡張適応(DMEA)を提案する。
DMEAにより、タスク相関に基づいて新しい知識を取得するためのアーキテクチャを動的に決定し、最も類似したタスクを選択して、新しいタスクへの適応を容易にすることができる。
論文 参考訳(メタデータ) (2023-10-15T16:51:11Z) - Online Continual Learning via the Knowledge Invariant and Spread-out
Properties [4.109784267309124]
継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
論文 参考訳(メタデータ) (2023-02-02T04:03:38Z) - Progressive Learning without Forgetting [8.563323015260709]
連続学習(CL)のパラダイムにおける2つの課題に焦点をあてる。
PLwFは従来のタスクから関数を導入し、各タスクの最も信頼できる知識を含む知識空間を構築する。
信用割当は、投射を通して勾配の衝突を取り除くことによって、綱引きのダイナミクスを制御する。
他のCL法と比較して,生データに頼らずとも,優れた結果が得られている。
論文 参考訳(メタデータ) (2022-11-28T10:53:14Z) - Beyond Not-Forgetting: Continual Learning with Backward Knowledge
Transfer [39.99577526417276]
継続学習(CL)では、エージェントは、新しいタスクと古いタスクの両方の学習性能を向上させることができる。
既存のCL手法の多くは、古いタスクに対する学習モデルの修正を最小化することによって、ニューラルネットワークの破滅的な忘れに対処することに焦点を当てている。
データ再生のない固定容量ニューラルネットワークに対して,バックワードノウルEdge tRansfer (CUBER) を用いた新しいCL法を提案する。
論文 参考訳(メタデータ) (2022-11-01T23:55:51Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Continual Learning with Neuron Activation Importance [1.7513645771137178]
連続学習は、複数のシーケンシャルなタスクを伴うオンライン学習の概念である。
連続学習の重要な障壁の1つは、ネットワークが古いタスクのデータにアクセスせずに古いタスクの知識を保持する新しいタスクを学習すべきである。
本稿では,タスクの順序によらず,安定な連続学習のためのニューロン活性化重要度に基づく正規化手法を提案する。
論文 参考訳(メタデータ) (2021-07-27T08:09:32Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Bridging the Imitation Gap by Adaptive Insubordination [88.35564081175642]
教官が特権情報にアクセスして意思決定を行う場合、この情報は模倣学習中に疎外されることを示す。
本稿では,このギャップに対処するため,適応的不規則化(ADVISOR)を提案する。
ADVISORは、トレーニング中の模倣と報酬に基づく強化学習損失を動的に重み付け、模倣と探索をオンザフライで切り替えることを可能にする。
論文 参考訳(メタデータ) (2020-07-23T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。