論文の概要: VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime
Inference
- arxiv url: http://arxiv.org/abs/2309.08227v1
- Date: Fri, 15 Sep 2023 07:54:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:34:35.694739
- Title: VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime
Inference
- Title(参考訳): VERSE:任意の推論で生涯学習をストリーミングする仮想グラディエント・アウェア
- Authors: Soumya Banerjee, Vinay K. Verma, Avideep Mukherjee, Deepak Gupta,
Vinay P. Namboodiri, Piyush Rai
- Abstract要約: 生涯学習(英: Lifelong learning)は、AIエージェントを継続的に訓練し、以前取得した知識を忘れないようにする問題である。
そこで本研究では,生涯学習に新たなアプローチを導入する。これはストリーミングであり,データに1回のパスが必要であり,クラスインクリメンタルな学習が可能であり,オンザフライで評価することができる。
- 参考スコア(独自算出の注目度): 36.61783715563126
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Lifelong learning, also referred to as continual learning, is the problem of
training an AI agent continuously while also preventing it from forgetting its
previously acquired knowledge. Most of the existing methods primarily focus on
lifelong learning within a static environment and lack the ability to mitigate
forgetting in a quickly-changing dynamic environment. Streaming lifelong
learning is a challenging setting of lifelong learning with the goal of
continuous learning in a dynamic non-stationary environment without forgetting.
We introduce a novel approach to lifelong learning, which is streaming,
requires a single pass over the data, can learn in a class-incremental manner,
and can be evaluated on-the-fly (anytime inference). To accomplish these, we
propose virtual gradients for continual representation learning to prevent
catastrophic forgetting and leverage an exponential-moving-average-based
semantic memory to further enhance performance. Extensive experiments on
diverse datasets demonstrate our method's efficacy and superior performance
over existing methods.
- Abstract(参考訳): 生涯学習は、連続学習とも呼ばれ、AIエージェントを継続的に訓練すると同時に、以前取得した知識を忘れないようにする問題である。
既存の手法のほとんどは、主に静的環境における生涯学習に焦点を当てており、急速に変化する動的環境における忘れを軽減できない。
ストリーミング生涯学習は、忘れずに動的非定常環境での継続的学習を目標として、生涯学習の難しい設定である。
本稿では,ストリーミングである生涯学習に新たなアプローチを導入し,データに1回のパスを要し,クラスインクリメンタルな学習を可能とし,オンザフライ(任意の推論)で評価することができる。
そこで我々は,破滅的な忘れ込みを防止し,指数的移動平均型セマンティックメモリを活用して性能を向上させるために,連続表現学習のための仮想勾配を提案する。
多様なデータセットに関する広範囲な実験により,提案手法の有効性と既存の手法よりも優れた性能を示す。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - AdaER: An Adaptive Experience Replay Approach for Continual Lifelong
Learning [16.457330925212606]
持続的生涯学習の課題に対処するために,適応的経験リプレイ(AdaER)を提案する。
AdaERはメモリリプレイとメモリ更新という2つのステージで構成されている。
結果: AdaERは、既存の持続的生涯学習ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-08-07T01:25:45Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Continually Learning Self-Supervised Representations with Projected
Functional Regularization [39.92600544186844]
近年の自己教師あり学習手法は高品質な画像表現を学習でき、教師ありの手法でギャップを埋めている。
これらの手法は、新たな知識を段階的に取得することができない -- 実際、主にIDデータによる事前学習フェーズとしてのみ使用される。
従来の知識を忘れないように,機能正規化の利用を提案する。
論文 参考訳(メタデータ) (2021-12-30T11:59:23Z) - Lifelong Learning from Event-based Data [22.65311698505554]
イベントカメラが生成したデータから学習する方法を検討する。
特徴抽出と連続学習の両方からなるモデルを提案する。
論文 参考訳(メタデータ) (2021-11-11T17:59:41Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - IQ-Learn: Inverse soft-Q Learning for Imitation [95.06031307730245]
少数の専門家データからの模倣学習は、複雑な力学を持つ高次元環境では困難である。
行動クローニングは、実装の単純さと安定した収束性のために広く使われている単純な方法である。
本稿では,1つのQ-関数を学習することで,対向学習を回避する動的適応型ILを提案する。
論文 参考訳(メタデータ) (2021-06-23T03:43:10Z) - Meta-Learning with Sparse Experience Replay for Lifelong Language
Learning [26.296412053816233]
本稿では,スパース体験を再現したメタラーニングに基づく言語タスクの生涯学習のための新しいアプローチを提案する。
本研究では,タスクのストリーム上で1回のパスを実行するという現実的な設定の下で,生涯のテキスト分類と関係抽出に関する最先端結果を得る。
論文 参考訳(メタデータ) (2020-09-10T14:36:38Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。