論文の概要: Carousel Memory: Rethinking the Design of Episodic Memory for Continual
Learning
- arxiv url: http://arxiv.org/abs/2110.07276v2
- Date: Fri, 15 Oct 2021 03:49:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 10:27:44.850753
- Title: Carousel Memory: Rethinking the Design of Episodic Memory for Continual
Learning
- Title(参考訳): カルーセル記憶 : 連続学習のためのエピソード記憶の設計を再考する
- Authors: Soobee Lee, Minindu Weerakoon, Jonghyun Choi, Minjia Zhang, Di Wang,
Myeongjae Jeon
- Abstract要約: 継続的な学習(CL)は、以前のタスクから学んだ知識を忘れずに、連続したタスクストリームから学習することを目的としている。
以前の研究では、新しい非i.d.データから学習しながら、過去の観測されたサンプルのサブセットを格納するエピソードメモリ(EM)を利用している。
メモリとストレージ間のサンプルを効率よく移行させることにより,過去の経験を保存し,忘れを軽減すべく,豊富なストレージを活用することを提案する。
- 参考スコア(独自算出の注目度): 19.260402028696916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Learning (CL) is an emerging machine learning paradigm that aims to
learn from a continuous stream of tasks without forgetting knowledge learned
from the previous tasks. To avoid performance decrease caused by forgetting,
prior studies exploit episodic memory (EM), which stores a subset of the past
observed samples while learning from new non-i.i.d. data. Despite the promising
results, since CL is often assumed to execute on mobile or IoT devices, the EM
size is bounded by the small hardware memory capacity and makes it infeasible
to meet the accuracy requirements for real-world applications. Specifically,
all prior CL methods discard samples overflowed from the EM and can never
retrieve them back for subsequent training steps, incurring loss of information
that would exacerbate catastrophic forgetting. We explore a novel hierarchical
EM management strategy to address the forgetting issue. In particular, in
mobile and IoT devices, real-time data can be stored not just in high-speed
RAMs but in internal storage devices as well, which offer significantly larger
capacity than the RAMs. Based on this insight, we propose to exploit the
abundant storage to preserve past experiences and alleviate the forgetting by
allowing CL to efficiently migrate samples between memory and storage without
being interfered by the slow access speed of the storage. We call it Carousel
Memory (CarM). As CarM is complementary to existing CL methods, we conduct
extensive evaluations of our method with seven popular CL methods and show that
CarM significantly improves the accuracy of the methods across different
settings by large margins in final average accuracy (up to 28.4%) while
retaining the same training efficiency.
- Abstract(参考訳): 継続的学習(Continuous Learning, CL)は、タスクの連続ストリームから学習することを目的とした、新しい機械学習パラダイムである。
過去の研究では、新しい非i.d.データから学習しながら、過去の観測されたサンプルのサブセットを記憶するエピソードメモリ(EM)を利用する。
有望な結果にもかかわらず、CLはしばしばモバイルまたはIoTデバイス上で実行されると仮定されるため、EMサイズは小さなハードウェアメモリ容量に縛られ、現実世界のアプリケーションの精度要件を満たすことができない。
具体的には、これまでの全てのCLメソッドは、EMから過剰に流れたサンプルを破棄し、その後のトレーニングステップでそれらを回収することはできません。
忘れる問題に対処する新しい階層的EMマネジメント戦略を探求する。
特にモバイルやIoTデバイスでは、リアルタイムデータは高速RAMだけでなく、内部ストレージデバイスにも格納することができる。
この知見に基づいて,clがメモリとストレージ間のサンプルマイグレーションを,ストレージの遅いアクセス速度に干渉されることなく効率的に行えるようにすることで,過去の経験を保存し,忘れを緩和するために豊富なストレージを活用することを提案する。
Carousel Memory (CarM) と呼ぶ。
CarM は既存の CL 法を補完するものであるため,本手法を 7 つの一般的な CL 法で広範囲に評価し,CarM が同一の訓練効率を維持しつつ,最終平均精度 (28.4% まで) で異なる設定における手法の精度を大幅に向上することを示す。
関連論文リスト
- Efficiently Training 7B LLM with 1 Million Sequence Length on 8 GPUs [24.066283519769968]
大規模言語モデル(LLM)は、よりクリエイティブなアプリケーションを促進するために、拡張コンテキスト長を使用して訓練されている。
本稿では,メモリ管理を微粒化するための新しいフレームワークであるMEMOを提案する。
我々は,MEMOがMegatron-LMやDeepSpeedと比較して平均2.42倍,2.26倍のMFUを達成することを示す。
論文 参考訳(メタデータ) (2024-07-16T18:59:49Z) - Adversarially Diversified Rehearsal Memory (ADRM): Mitigating Memory Overfitting Challenge in Continual Learning [0.0]
継続的な学習は、それまでの知識を忘れずに、静止しないデータ分布を学習することに焦点を当てる。
リハーサルベースのアプローチは、破滅的な忘れに対処するために一般的に使用される。
本稿では、メモリ過度に適合する課題に対処するために、Adversarially Diversified Rehearsal Memoryを導入する。
論文 参考訳(メタデータ) (2024-05-20T06:56:43Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,知識能力を向上させる新しい手法であるMemLLMを紹介する。
実験の結果,MemLLMは言語モデリング全般,特に言語モデルにおいて,性能と解釈可能性を向上させることが示唆された。
私たちは MemLLM を,メモリ拡張による LLM の基盤化と現実化に向けた重要なステップと捉えています。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - Beyond Memorization: The Challenge of Random Memory Access in Language Models [56.525691003233554]
生成言語モデル(LM)がそのメモリに逐次的またはランダムにアクセスできるかどうかを検討する。
本手法により, LMのランダムメモリアクセス性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-12T16:42:44Z) - Cost-effective On-device Continual Learning over Memory Hierarchy with
Miro [32.93163587457259]
Miroは、リソース状態に基づいてCLシステムを動的に構成する新しいシステムランタイムである。
Miroは、私たちが構築するベースラインシステムを大幅に上回り、コスト効率を継続的に向上します。
論文 参考訳(メタデータ) (2023-08-11T10:05:53Z) - RMM: Reinforced Memory Management for Class-Incremental Learning [102.20140790771265]
クラスインクリメンタルラーニング(CIL)は、厳格な記憶予算の下で分類器を訓練する。
既存のメソッドは静的およびアドホックな戦略を使ってメモリ割り当てを行うが、これはしばしば準最適である。
本稿では,段階的な段階と異なるオブジェクトクラスに最適化された動的メモリ管理戦略を提案する。
論文 参考訳(メタデータ) (2023-01-14T00:07:47Z) - Improving information retention in large scale online continual learning [99.73847522194549]
オンライン連続学習は、既存の知識を維持しながら、新しいデータに効率的に適応することを目的としている。
最近の研究は、リプレイバッファが無制限であっても、大規模なOCLでは情報保持が問題であり続けていることを示唆している。
非定常目標に対する最適化を改善するため,移動平均の手法群を提案する。
論文 参考訳(メタデータ) (2022-10-12T16:59:43Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Improving Task-free Continual Learning by Distributionally Robust Memory
Evolution [9.345559196495746]
タスクフリー連続学習は、明示的なタスク定義なしで非定常データストリームを学習し、以前の知識を忘れないことを目的としている。
既存の手法は、メモリデータ分布における高い不確実性を見落としている。
本稿では,メモリデータ分散を動的に進化させるためのメモリ進化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-15T02:16:09Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Prototypes-Guided Memory Replay for Continual Learning [13.459792148030717]
継続学習(英: Continual Learning, CL)とは、学習性能を高めるために、トレーニングサンプルの小さな記述と以前に学んだ知識のみを使用する機械学習パラダイムである。
CLの最大の難しさは、データ分布の変化によって引き起こされた、以前に学習されたタスクの破滅的な忘れである。
オンラインメタ学習モデルに組み込んだメモリ効率の高いCL手法を提案する。
論文 参考訳(メタデータ) (2021-08-28T13:00:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。