論文の概要: Towards Robust Continual Learning with Bayesian Adaptive Moment
Regularization
- arxiv url: http://arxiv.org/abs/2309.08546v1
- Date: Fri, 15 Sep 2023 17:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 13:42:48.238494
- Title: Towards Robust Continual Learning with Bayesian Adaptive Moment
Regularization
- Title(参考訳): ベイズ適応モーメント正規化によるロバスト連続学習に向けて
- Authors: Jack Foster and Alexandra Brintrup
- Abstract要約: 継続的な学習は破滅的な忘れ込みという課題を克服しようと試み、そこでは新しいタスクを解くための学習が、モデルが以前に学習した情報を忘れる原因となる。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れ込みを抑える新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 57.71118589124002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pursuit of long-term autonomy mandates that robotic agents must
continuously adapt to their changing environments and learn to solve new tasks.
Continual learning seeks to overcome the challenge of catastrophic forgetting,
where learning to solve new tasks causes a model to forget previously learnt
information. Prior-based continual learning methods are appealing for robotic
applications as they are space efficient and typically do not increase in
computational complexity as the number of tasks grows. Despite these desirable
properties, prior-based approaches typically fail on important benchmarks and
consequently are limited in their potential applications compared to their
memory-based counterparts. We introduce Bayesian adaptive moment regularization
(BAdam), a novel prior-based method that better constrains parameter growth,
leading to lower catastrophic forgetting. Our method boasts a range of
desirable properties for robotic applications such as being lightweight and
task label-free, converging quickly, and offering calibrated uncertainty that
is important for safe real-world deployment. Results show that BAdam achieves
state-of-the-art performance for prior-based methods on challenging
single-headed class-incremental experiments such as Split MNIST and Split
FashionMNIST, and does so without relying on task labels or discrete task
boundaries.
- Abstract(参考訳): 長期的な自律性の追求は、ロボットエージェントが変化する環境に継続的に適応し、新しいタスクの解決を学ぶことを義務付ける。
継続的な学習は破滅的な忘れ込みという課題を克服しようと試み、そこでは新しいタスクを解くための学習が、モデルが以前に学習した情報を忘れる原因となる。
従来の連続学習手法は、空間効率が高く、タスクの数が増加するにつれて計算複雑性が増大しないため、ロボット応用にアピールしている。
このような望ましい特性にもかかわらず、事前ベースのアプローチは、通常は重要なベンチマークで失敗するため、メモリベースのアプローチに比べて潜在的なアプリケーションでは制限される。
ベイズ適応モーメント正規化(Badam)は,パラメータ成長の抑制を図り,破滅的な記憶を抑える新しい手法である。
本手法は,軽量でタスクラベルフリー,高速収束,安全な実世界の展開に重要な不確実性を校正するなど,ロボットアプリケーションにとって望ましい特性を誇っている。
その結果, BAdamは, Split MNIST や Split FashionMNIST のような単頭クラスインクリメンタルな実験に挑戦し, タスクラベルや個別タスク境界に頼らずに, 先行手法の最先端性能を実現していることがわかった。
関連論文リスト
- Class-Incremental Learning Using Generative Experience Replay Based on
Time-aware Regularization [24.143811670210546]
生成体験 リプレイは、忘れずに蓄積的に新しいタスクを学ぶという課題に対処する。
生成的再生に用いる3つの学習目標語を微調整するための時間認識正規化手法を提案する。
実験結果から,本手法は脳に触発された連続学習者の限界を,そのような厳密な条件下で押し上げることが示唆された。
論文 参考訳(メタデータ) (2023-10-05T21:07:45Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - Learning Goal-Conditioned Policies Offline with Self-Supervised Reward
Shaping [94.89128390954572]
本稿では,モデルの構造と力学を理解するために,事前収集したデータセット上に,新たな自己教師型学習フェーズを提案する。
提案手法を3つの連続制御タスクで評価し,既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-05T15:07:10Z) - Generalizing to New Tasks via One-Shot Compositional Subgoals [23.15624959305799]
以前は見つからなかったタスクをほとんど、あるいはまったく監督せずに一般化する能力は、現代の機械学習研究において重要な課題である。
適応型「近未来」サブゴールを用いて、模倣学習エージェントを訓練することにより、これらの問題に対処しようとするCASEを導入する。
実験の結果,提案手法は従来よりも30%向上していることがわかった。
論文 参考訳(メタデータ) (2022-05-16T14:30:11Z) - Center Loss Regularization for Continual Learning [0.0]
一般的に、ニューラルネットワークには、さまざまなタスクを逐次学習する能力がない。
提案手法では,従来のタスクに近い新しいタスクの表現を投影することで,古いタスクを記憶する。
提案手法は,最先端の継続的学習手法と比較して,スケーラブルで効果的で,競争力のある性能を示す。
論文 参考訳(メタデータ) (2021-10-21T17:46:44Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z) - Meta Cyclical Annealing Schedule: A Simple Approach to Avoiding
Meta-Amortization Error [50.83356836818667]
循環型アニーリングスケジュールとMMD基準を用いた新しいメタレギュラー化目標を構築した。
実験の結果,本手法は標準的なメタ学習アルゴリズムよりもかなり優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-04T04:43:16Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。