論文の概要: Learn the Time to Learn: Replay Scheduling in Continual Learning
- arxiv url: http://arxiv.org/abs/2209.08660v1
- Date: Sun, 18 Sep 2022 21:29:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:40:29.634337
- Title: Learn the Time to Learn: Replay Scheduling in Continual Learning
- Title(参考訳): 学習する時間を学ぶ - 継続的学習におけるリプレイスケジューリング
- Authors: Marcus Klasson, Hedvig Kjellstr\"om, Cheng Zhang
- Abstract要約: 本稿では,継続学習システムの学習時間について提案する。
学習する時間を学習することの利点が示され、それによって、現在の継続的な学習研究が現実世界のニーズに近づきつつある。
- 参考スコア(独自算出の注目度): 6.188157701090361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Replay methods have shown to be successful in mitigating catastrophic
forgetting in continual learning scenarios despite having limited access to
historical data. However, storing historical data is cheap in many real-world
applications, yet replaying all historical data would be prohibited due to
processing time constraints. In such settings, we propose learning the time to
learn for a continual learning system, in which we learn replay schedules over
which tasks to replay at different time steps. To demonstrate the importance of
learning the time to learn, we first use Monte Carlo tree search to find the
proper replay schedule and show that it can outperform fixed scheduling
policies in terms of continual learning performance. Moreover, to improve the
scheduling efficiency itself, we propose to use reinforcement learning to learn
the replay scheduling policies that can generalize to new continual learning
scenarios without added computational cost. In our experiments, we show the
advantages of learning the time to learn, which brings current continual
learning research closer to real-world needs.
- Abstract(参考訳): リプレイ手法は、歴史的データへのアクセスが限られているにもかかわらず、継続的な学習シナリオにおける破滅的な忘れを緩和することに成功した。
しかし、多くの実世界のアプリケーションでは履歴データの保存は安価だが、処理時間の制約によりすべての履歴データの再生が禁止される。
そこで本研究では,様々な時間ステップでどのタスクをリプレイするかを学習するリプレイスケジュールを学習する,連続学習システムのための学習時間を提案する。
学習時間を学習することの重要性を示すために,まずモンテカルロ木探索を用いて適切な再生スケジュールを見つけ,連続的な学習性能の点から一定のスケジューリングポリシーを上回り得ることを示す。
さらに,スケジューリング効率を向上するために,計算コストを伴わずに新たな連続学習シナリオに一般化可能なリプレイスケジューリングポリシーの学習に強化学習を用いることを提案する。
実験では、学習する時間を学習する利点を示し、現在の継続的な学習研究を現実世界のニーズに近づける。
関連論文リスト
- Watch Your Step: Optimal Retrieval for Continual Learning at Scale [1.7265013728931]
連続学習では、モデルは古いタスクと新しいタスクの間の干渉を最小限にしながら、時間とともに漸進的に学習する。
継続的学習における最も広く使われているアプローチの1つは、リプレイと呼ばれる。
本稿では,単純で独立したクラス選択型プリミティブとサンプル選択型プリミティブによって分類された選択的検索戦略を評価するためのフレームワークを提案する。
本稿では,重複したリプレイを防止し,損失値の低い新しいサンプルをリプレイなしで学習できるかどうかを探索する戦略を提案する。
論文 参考訳(メタデータ) (2024-04-16T17:35:35Z) - Integrating Curricula with Replays: Its Effects on Continual Learning [3.2489082010225494]
人間は、新しいスキルや知識を得る際に、カリキュラムを使って学習とレビューを行う。
目標は、人間の学習プロセスをエミュレートし、知識の保持を改善し、学習の伝達を容易にすることである。
継続学習エージェントにおける既存のリプレイ手法には、以前のタスクからのデータのランダムな選択と順序付けが含まれる。
論文 参考訳(メタデータ) (2023-07-08T14:14:55Z) - Adiabatic replay for continual learning [138.7878582237908]
生成的リプレイは、すでに知られていることを再学習するだけで、より多くの時間を費やします。
我々は、アディバティック・リプレイ(AR)と呼ぶリプレイベースのCL戦略を提案する。
VAEを用いた最先端の深層再生よりもARの方が優れていることを実験的に検証した。
論文 参考訳(メタデータ) (2023-03-23T10:18:06Z) - Practical Recommendations for Replay-based Continual Learning Methods [18.559132470835937]
継続学習では、以前の知識を忘れることなく、動的で非定常的なデータのストリームからモデルを学習する必要がある。
リプレイアプローチが最も効果的であることが実証的に証明されている。
論文 参考訳(メタデータ) (2022-03-19T12:44:44Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Augmenting Policy Learning with Routines Discovered from a Demonstration [86.9307760606403]
日常的な政策学習(RAPL)を提案する。
RAPLは1つのデモから原始的なアクションからなるルーチンを発見する。
RAPLが最先端の模倣学習方法SQILと強化学習方法A2Cを改善することを示した。
論文 参考訳(メタデータ) (2020-12-23T03:15:21Z) - Meta-Learning with Sparse Experience Replay for Lifelong Language
Learning [26.296412053816233]
本稿では,スパース体験を再現したメタラーニングに基づく言語タスクの生涯学習のための新しいアプローチを提案する。
本研究では,タスクのストリーム上で1回のパスを実行するという現実的な設定の下で,生涯のテキスト分類と関係抽出に関する最先端結果を得る。
論文 参考訳(メタデータ) (2020-09-10T14:36:38Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Continual Learning: Tackling Catastrophic Forgetting in Deep Neural
Networks with Replay Processes [0.0]
連続的なアルゴリズムは、忘れずに学習経験のカリキュラムで知識を蓄積し、改善するように設計されている。
生成的再生は、過去の学習経験を記憶するための生成モデルで再現する。
連続学習には非常に有望な手法であることを示す。
論文 参考訳(メタデータ) (2020-07-01T13:44:33Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。