論文の概要: Learn the Time to Learn: Replay Scheduling in Continual Learning
- arxiv url: http://arxiv.org/abs/2209.08660v2
- Date: Mon, 20 Nov 2023 21:07:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 05:51:29.541342
- Title: Learn the Time to Learn: Replay Scheduling in Continual Learning
- Title(参考訳): 学習する時間を学ぶ - 継続的学習におけるリプレイスケジューリング
- Authors: Marcus Klasson, Hedvig Kjellstr\"om, Cheng Zhang
- Abstract要約: 連続学習システムは、異なる時間ステップでどのタスクを再生すべきかを学習し、スケジュールするべきだと提案する。
本研究は,継続学習における学習時間の重要性を明らかにし,現在の研究を現実のニーズに近づけるものである。
- 参考スコア(独自算出の注目度): 5.870425936223879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Replay methods are known to be successful at mitigating catastrophic
forgetting in continual learning scenarios despite having limited access to
historical data. However, storing historical data is cheap in many real-world
settings, yet replaying all historical data is often prohibited due to
processing time constraints. In such settings, we propose that continual
learning systems should learn the time to learn and schedule which tasks to
replay at different time steps. We first demonstrate the benefits of our
proposal by using Monte Carlo tree search to find a proper replay schedule, and
show that the found replay schedules can outperform fixed scheduling policies
when combined with various replay methods in different continual learning
settings. Additionally, we propose a framework for learning replay scheduling
policies with reinforcement learning. We show that the learned policies can
generalize better in new continual learning scenarios compared to equally
replaying all seen tasks, without added computational cost. Our study reveals
the importance of learning the time to learn in continual learning, which
brings current research closer to real-world needs.
- Abstract(参考訳): リプレイ手法は、履歴データへのアクセスが制限されているにもかかわらず、継続的な学習シナリオにおける破滅的な忘れることの軽減に成功していることが知られている。
しかし、多くの実世界では、履歴データの保存は安価であるが、処理時間の制約のため、履歴データの再生は禁止されることが多い。
このような状況下では,連続学習システムは学習する時間を学習し,異なる時間ステップでどのタスクをリプレイするかをスケジュールすべきである。
まず,モンテカルロ木探索を用いて適切な再生スケジュールを求めることで提案手法の利点を実証し,連続的な学習環境における様々な再生手法と組み合わせることで,得られた再生スケジュールが一定のスケジューリングポリシーより優れていることを示す。
さらに,強化学習を用いたリプレイスケジューリングポリシの学習フレームワークを提案する。
学習方針は, 計算コストを増すことなく, 全てのタスクを等しく再生するよりも, 新たな連続学習シナリオにおいてより一般化できることを示す。
本研究は,継続学習における学習時間の重要性を明らかにし,現在の研究を現実世界のニーズに近づける。
関連論文リスト
- Watch Your Step: Optimal Retrieval for Continual Learning at Scale [1.7265013728931]
連続学習では、モデルは古いタスクと新しいタスクの間の干渉を最小限にしながら、時間とともに漸進的に学習する。
継続的学習における最も広く使われているアプローチの1つは、リプレイと呼ばれる。
本稿では,単純で独立したクラス選択型プリミティブとサンプル選択型プリミティブによって分類された選択的検索戦略を評価するためのフレームワークを提案する。
本稿では,重複したリプレイを防止し,損失値の低い新しいサンプルをリプレイなしで学習できるかどうかを探索する戦略を提案する。
論文 参考訳(メタデータ) (2024-04-16T17:35:35Z) - Integrating Curricula with Replays: Its Effects on Continual Learning [3.2489082010225494]
人間は、新しいスキルや知識を得る際に、カリキュラムを使って学習とレビューを行う。
目標は、人間の学習プロセスをエミュレートし、知識の保持を改善し、学習の伝達を容易にすることである。
継続学習エージェントにおける既存のリプレイ手法には、以前のタスクからのデータのランダムな選択と順序付けが含まれる。
論文 参考訳(メタデータ) (2023-07-08T14:14:55Z) - Adiabatic replay for continual learning [138.7878582237908]
生成的リプレイは、すでに知られていることを再学習するだけで、より多くの時間を費やします。
我々は、アディバティック・リプレイ(AR)と呼ぶリプレイベースのCL戦略を提案する。
VAEを用いた最先端の深層再生よりもARの方が優れていることを実験的に検証した。
論文 参考訳(メタデータ) (2023-03-23T10:18:06Z) - Practical Recommendations for Replay-based Continual Learning Methods [18.559132470835937]
継続学習では、以前の知識を忘れることなく、動的で非定常的なデータのストリームからモデルを学習する必要がある。
リプレイアプローチが最も効果的であることが実証的に証明されている。
論文 参考訳(メタデータ) (2022-03-19T12:44:44Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Augmenting Policy Learning with Routines Discovered from a Demonstration [86.9307760606403]
日常的な政策学習(RAPL)を提案する。
RAPLは1つのデモから原始的なアクションからなるルーチンを発見する。
RAPLが最先端の模倣学習方法SQILと強化学習方法A2Cを改善することを示した。
論文 参考訳(メタデータ) (2020-12-23T03:15:21Z) - Meta-Learning with Sparse Experience Replay for Lifelong Language
Learning [26.296412053816233]
本稿では,スパース体験を再現したメタラーニングに基づく言語タスクの生涯学習のための新しいアプローチを提案する。
本研究では,タスクのストリーム上で1回のパスを実行するという現実的な設定の下で,生涯のテキスト分類と関係抽出に関する最先端結果を得る。
論文 参考訳(メタデータ) (2020-09-10T14:36:38Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Continual Learning: Tackling Catastrophic Forgetting in Deep Neural
Networks with Replay Processes [0.0]
連続的なアルゴリズムは、忘れずに学習経験のカリキュラムで知識を蓄積し、改善するように設計されている。
生成的再生は、過去の学習経験を記憶するための生成モデルで再現する。
連続学習には非常に有望な手法であることを示す。
論文 参考訳(メタデータ) (2020-07-01T13:44:33Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。