論文の概要: GCR: Gradient Coreset Based Replay Buffer Selection For Continual
Learning
- arxiv url: http://arxiv.org/abs/2111.11210v1
- Date: Thu, 18 Nov 2021 18:01:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 14:07:26.719260
- Title: GCR: Gradient Coreset Based Replay Buffer Selection For Continual
Learning
- Title(参考訳): gcr:グラデーションコアセットに基づく連続学習のためのリプレイバッファ選択
- Authors: Rishabh Tiwari, Krishnateja Killamsetty, Rishabh Iyer, Pradeep Shenoy
- Abstract要約: 調査対象のオフライン学習環境において,最先端の学習に比べて有意な増加(2%~4%)を示した。
また、オンライン/ストリーミングのCL設定にも効果的に移行し、既存のアプローチよりも最大5%向上しました。
- 参考スコア(独自算出の注目度): 1.911678487931003
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continual learning (CL) aims to develop techniques by which a single model
adapts to an increasing number of tasks encountered sequentially, thereby
potentially leveraging learnings across tasks in a resource-efficient manner. A
major challenge for CL systems is catastrophic forgetting, where earlier tasks
are forgotten while learning a new task. To address this, replay-based CL
approaches maintain and repeatedly retrain on a small buffer of data selected
across encountered tasks. We propose Gradient Coreset Replay (GCR), a novel
strategy for replay buffer selection and update using a carefully designed
optimization criterion. Specifically, we select and maintain a "coreset" that
closely approximates the gradient of all the data seen so far with respect to
current model parameters, and discuss key strategies needed for its effective
application to the continual learning setting. We show significant gains (2%-4%
absolute) over the state-of-the-art in the well-studied offline continual
learning setting. Our findings also effectively transfer to online / streaming
CL settings, showing upto 5% gains over existing approaches. Finally, we
demonstrate the value of supervised contrastive loss for continual learning,
which yields a cumulative gain of up to 5% accuracy when combined with our
subset selection strategy.
- Abstract(参考訳): 連続学習(CL)は、単一のモデルが連続的に遭遇するタスクの数の増加に適応し、リソース効率のよい方法でタスク間の学習を活用する技術を開発することを目的としている。
CLシステムの大きな課題は、新しいタスクを学習しながら、以前のタスクを忘れてしまう破滅的な忘れ事である。
これに対処するために、リプレイベースのclアプローチは、遭遇したタスク間で選択されたデータの小さなバッファをメンテナンスし、繰り返し再トレーニングする。
本稿では,注意深く設計した最適化基準を用いて,バッファ選択と更新を行う新しい戦略であるgradient coreset replay (gcr)を提案する。
具体的には、現在のモデルパラメータに関してこれまで見てきたすべてのデータの勾配を密接に近似する「コアセット」を選択して維持し、その有効利用に必要な重要な戦略について論じる。
我々は,オフライン連続学習環境において,最先端を上回って(2%~4%の絶対値)有意な向上を示した。
また、オンライン/ストリーミングのCL設定にも効果的に移行し、既存のアプローチよりも最大5%向上しました。
最後に,継続学習における教師付きコントラスト損失の価値を実証し,集合選択戦略と組み合わせることで,最大5%精度の累積利得が得られることを示した。
関連論文リスト
- On the Convergence of Continual Federated Learning Using Incrementally Aggregated Gradients [2.2530496464901106]
機械学習の聖杯は、連続的フェデレーション学習(CFL)によって、ストリーミングデータから学習しながら、AIシステムの効率、プライバシ、スケーラビリティを高めることである。
本稿では、エッジベースのメモリ勾配更新と、現在のデータに対する集約勾配からなる新しいリプレイメモリベースのフェデレーション戦略を提案する。
我々は,C-FLAGが,タスクとクラスインクリメンタル設定の両方において,精度や忘れなどの指標に関して,最先端のベースラインを上回っていることを実証的に示す。
論文 参考訳(メタデータ) (2024-11-12T17:36:20Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - CORE: Mitigating Catastrophic Forgetting in Continual Learning through Cognitive Replay [14.169588352209907]
コグニティブ・リプレイ(CORE)は、人間の認知的レビュープロセスからインスピレーションを得ている。
COREはスプリットCIFAR10で平均37.95%の精度を達成し、最高のベースライン法を6.52%上回っている。
これにより、最上位のベースラインに比べて、最も貧弱なパフォーマンスタスクの精度が6.30%向上する。
論文 参考訳(メタデータ) (2024-02-02T12:04:44Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Gradient-Matching Coresets for Rehearsal-Based Continual Learning [6.243028964381449]
継続学習(CL)の目標は、学習した知識を忘れずに、機械学習モデルを新しいデータで効率的に更新することである。
広く使われているほとんどのCLメソッドは、新しいデータのトレーニング中に再利用されるデータポイントのリハーサルメモリに依存している。
リハーサルに基づく連続学習のためのコアセット選択法を考案する。
論文 参考訳(メタデータ) (2022-03-28T07:37:17Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Online Coreset Selection for Rehearsal-based Continual Learning [65.85595842458882]
継続的な学習では、後に再生されるトレーニング例(コアセット)のサブセットを格納し、破滅的な忘れを軽減します。
提案するオンラインコアセット選択(OCS, Online Coreset Selection)は, 各イテレーションにおいて最も代表的で情報性の高いコアセットを選択するシンプルで効果的な方法である。
提案手法は,過去のタスクに対して高親和性サンプルを選択しながら,目標データセットへのモデル適応を最大化し,破滅的忘れを直接的に抑制する。
論文 参考訳(メタデータ) (2021-06-02T11:39:25Z) - Continual Learning with Node-Importance based Adaptive Group Sparse
Regularization [30.23319528662881]
AGS-CL(Adaptive Group Sparsity based Continual Learning)と呼ばれる新しい正規化に基づく連続学習手法を提案する。
提案手法は,各ノードが重要度に基づいて学習する際の2つの罰則を選択的に利用し,各タスクを学習した後に適応的に更新する。
論文 参考訳(メタデータ) (2020-03-30T18:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。