論文の概要: VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime
Inference
- arxiv url: http://arxiv.org/abs/2309.08227v2
- Date: Mon, 19 Feb 2024 06:49:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 05:58:35.484200
- Title: VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime
Inference
- Title(参考訳): VERSE:任意の推論で生涯学習をストリーミングする仮想グラディエント・アウェア
- Authors: Soumya Banerjee, Vinay K. Verma, Avideep Mukherjee, Deepak Gupta,
Vinay P. Namboodiri, Piyush Rai
- Abstract要約: 生涯学習をストリーミングすることは、忘れずに継続的な学習を目標とすることで、生涯学習の挑戦的な設定である。
ストリーミング(学習例は1回に1回のみ)である生涯学習に新たなアプローチを導入する。
本稿では,各新しい例に適応し,過去のデータにも順応し,破滅的な忘れ込みを防止できる新しいエンフェクチュアル勾配に基づく連続表現学習手法を提案する。
- 参考スコア(独自算出の注目度): 36.61783715563126
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Lifelong learning or continual learning is the problem of training an AI
agent continuously while also preventing it from forgetting its previously
acquired knowledge. Streaming lifelong learning is a challenging setting of
lifelong learning with the goal of continuous learning in a dynamic
non-stationary environment without forgetting. We introduce a novel approach to
lifelong learning, which is streaming (observes each training example only
once), requires a single pass over the data, can learn in a class-incremental
manner, and can be evaluated on-the-fly (anytime inference). To accomplish
these, we propose a novel \emph{virtual gradients} based approach for continual
representation learning which adapts to each new example while also
generalizing well on past data to prevent catastrophic forgetting. Our approach
also leverages an exponential-moving-average-based semantic memory to further
enhance performance. Experiments on diverse datasets with temporally correlated
observations demonstrate our method's efficacy and superior performance over
existing methods.
- Abstract(参考訳): 生涯学習または連続学習は、AIエージェントを継続的に訓練すると同時に、以前獲得した知識を忘れないようにする問題である。
ストリーミング生涯学習は、忘れずに動的非定常環境での継続的学習を目標として、生涯学習の難しい設定である。
ストリーミング(各トレーニングサンプルを1回だけ観察する)であり、データに1回のパスが必要で、クラスインクリメンタルな方法で学習でき、オンザフライ(任意の時間推論)で評価できる、生涯学習の新しいアプローチを導入する。
そこで本研究では,各新しい例に適応し,過去のデータにも順応し,破滅的な忘れ込みを防止できる,新規なemph{virtual gradients}に基づく連続表現学習手法を提案する。
提案手法では,指数移動平均型セマンティックメモリを活用し,性能をさらに向上する。
時間的に相関した観測データを用いた多種多様なデータセット実験により,本手法の有効性と既存手法よりも優れた性能を示した。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - AdaER: An Adaptive Experience Replay Approach for Continual Lifelong
Learning [16.457330925212606]
持続的生涯学習の課題に対処するために,適応的経験リプレイ(AdaER)を提案する。
AdaERはメモリリプレイとメモリ更新という2つのステージで構成されている。
結果: AdaERは、既存の持続的生涯学習ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-08-07T01:25:45Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Continually Learning Self-Supervised Representations with Projected
Functional Regularization [39.92600544186844]
近年の自己教師あり学習手法は高品質な画像表現を学習でき、教師ありの手法でギャップを埋めている。
これらの手法は、新たな知識を段階的に取得することができない -- 実際、主にIDデータによる事前学習フェーズとしてのみ使用される。
従来の知識を忘れないように,機能正規化の利用を提案する。
論文 参考訳(メタデータ) (2021-12-30T11:59:23Z) - Lifelong Learning from Event-based Data [22.65311698505554]
イベントカメラが生成したデータから学習する方法を検討する。
特徴抽出と連続学習の両方からなるモデルを提案する。
論文 参考訳(メタデータ) (2021-11-11T17:59:41Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - IQ-Learn: Inverse soft-Q Learning for Imitation [95.06031307730245]
少数の専門家データからの模倣学習は、複雑な力学を持つ高次元環境では困難である。
行動クローニングは、実装の単純さと安定した収束性のために広く使われている単純な方法である。
本稿では,1つのQ-関数を学習することで,対向学習を回避する動的適応型ILを提案する。
論文 参考訳(メタデータ) (2021-06-23T03:43:10Z) - Meta-Learning with Sparse Experience Replay for Lifelong Language
Learning [26.296412053816233]
本稿では,スパース体験を再現したメタラーニングに基づく言語タスクの生涯学習のための新しいアプローチを提案する。
本研究では,タスクのストリーム上で1回のパスを実行するという現実的な設定の下で,生涯のテキスト分類と関係抽出に関する最先端結果を得る。
論文 参考訳(メタデータ) (2020-09-10T14:36:38Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。