論文の概要: Bilevel Continual Learning
- arxiv url: http://arxiv.org/abs/2007.15553v1
- Date: Thu, 30 Jul 2020 16:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 13:33:13.837097
- Title: Bilevel Continual Learning
- Title(参考訳): 二段階連続学習
- Authors: Quang Pham, Doyen Sahoo, Chenghao Liu, Steven C.H Hoi
- Abstract要約: BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
- 参考スコア(独自算出の注目度): 76.50127663309604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning aims to learn continuously from a stream of tasks and data
in an online-learning fashion, being capable of exploiting what was learned
previously to improve current and future tasks while still being able to
perform well on the previous tasks. One common limitation of many existing
continual learning methods is that they often train a model directly on all
available training data without validation due to the nature of continual
learning, thus suffering poor generalization at test time. In this work, we
present a novel framework of continual learning named "Bilevel Continual
Learning" (BCL) by unifying a {\it bilevel optimization} objective and a {\it
dual memory management} strategy comprising both episodic memory and
generalization memory to achieve effective knowledge transfer to future tasks
and alleviate catastrophic forgetting on old tasks simultaneously. Our
extensive experiments on continual learning benchmarks demonstrate the efficacy
of the proposed BCL compared to many state-of-the-art methods. Our
implementation is available at
https://github.com/phquang/bilevel-continual-learning.
- Abstract(参考訳): 継続的学習は、オンライン学習の方法でタスクとデータのストリームから継続的に学習することを目的としている。
既存の継続学習手法の一般的な制限の一つは、連続学習の性質から、検証なしで利用可能なトレーニングデータに直接モデルを訓練することが多く、テスト時に一般化が不十分であることである。
本稿では,2段階最適化を目標とする「双レベル連続学習(Bilevel Continual Learning, BCL)」と,2段階記憶と一般化メモリを一体化して,将来の課題への効果的な知識伝達を実現し,旧タスクにおける破滅的な忘れを同時に緩和する「二段階記憶管理」戦略を新たに提案する。
連続学習ベンチマークに関する広範な実験により,提案手法の有効性が実証された。
実装はhttps://github.com/phquang/bilevel-continual-learningで利用可能です。
関連論文リスト
- A Unified Framework for Continual Learning and Machine Unlearning [9.538733681436836]
継続的学習と機械学習は機械学習において重要な課題であり、通常は別々に対処される。
制御された知識蒸留を活用することによって,両課題に共同で取り組む新しい枠組みを導入する。
我々のアプローチは、最小限の忘れ込みと効果的な標的未学習で効率的な学習を可能にする。
論文 参考訳(メタデータ) (2024-08-21T06:49:59Z) - Learning to Learn for Few-shot Continual Active Learning [9.283518682371756]
継続的な学習は、新しいドメインで可塑性を示しながら、以前見たタスクを解く際の安定性を確保するために努力する。
連続学習の最近の進歩は、特にNLPドメインにおいて、主に教師付き学習環境に限られている。
我々はメタラーニングを活用し,メタコンチネンタルアクティブラーニングと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T05:22:11Z) - Online Continual Learning via the Knowledge Invariant and Spread-out
Properties [4.109784267309124]
継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
論文 参考訳(メタデータ) (2023-02-02T04:03:38Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Online Fast Adaptation and Knowledge Accumulation: a New Approach to
Continual Learning [74.07455280246212]
継続的な学習は、新しいタスクに適応しながら、以前のタスクを忘れずにタスクの流れから学ぶエージェントを研究する。
この新たなシナリオでは、現在の連続学習、メタ学習、メタ連続学習、および連続メタ学習技術が失敗することを示します。
本稿では,このシナリオの強力なベースラインとして,人気のあるMAMLアルゴリズムのオンライン拡張であるContinual-MAMLを提案する。
論文 参考訳(メタデータ) (2020-03-12T15:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。