論文の概要: RMM: Reinforced Memory Management for Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2301.05792v1
- Date: Sat, 14 Jan 2023 00:07:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 18:52:00.748215
- Title: RMM: Reinforced Memory Management for Class-Incremental Learning
- Title(参考訳): RMM:クラス増分学習のための強化メモリ管理
- Authors: Yaoyao Liu, Bernt Schiele, Qianru Sun
- Abstract要約: クラスインクリメンタルラーニング(CIL)は、厳格な記憶予算の下で分類器を訓練する。
既存のメソッドは静的およびアドホックな戦略を使ってメモリ割り当てを行うが、これはしばしば準最適である。
本稿では,段階的な段階と異なるオブジェクトクラスに最適化された動的メモリ管理戦略を提案する。
- 参考スコア(独自算出の注目度): 102.20140790771265
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Class-Incremental Learning (CIL) [40] trains classifiers under a strict
memory budget: in each incremental phase, learning is done for new data, most
of which is abandoned to free space for the next phase. The preserved data are
exemplars used for replaying. However, existing methods use a static and ad hoc
strategy for memory allocation, which is often sub-optimal. In this work, we
propose a dynamic memory management strategy that is optimized for the
incremental phases and different object classes. We call our method reinforced
memory management (RMM), leveraging reinforcement learning. RMM training is not
naturally compatible with CIL as the past, and future data are strictly
non-accessible during the incremental phases. We solve this by training the
policy function of RMM on pseudo CIL tasks, e.g., the tasks built on the data
of the 0-th phase, and then applying it to target tasks. RMM propagates two
levels of actions: Level-1 determines how to split the memory between old and
new classes, and Level-2 allocates memory for each specific class. In essence,
it is an optimizable and general method for memory management that can be used
in any replaying-based CIL method. For evaluation, we plug RMM into two
top-performing baselines (LUCIR+AANets and POD+AANets [30]) and conduct
experiments on three benchmarks (CIFAR-100, ImageNet-Subset, and
ImageNet-Full). Our results show clear improvements, e.g., boosting POD+AANets
by 3.6%, 4.4%, and 1.9% in the 25-Phase settings of the above benchmarks,
respectively.
- Abstract(参考訳): CIL (Class-Incremental Learning) [40] は、厳格なメモリ予算の下で分類器を訓練します。
保存データは再生に使用される例である。
しかし、既存のメソッドは静的かつアドホックな戦略を使ってメモリ割り当てを行う。
本研究では,インクリメンタルフェーズと異なるオブジェクトクラスに最適化された動的メモリ管理戦略を提案する。
本手法を強化記憶管理(RMM)と呼び,強化学習を活用する。
RMMトレーニングは、過去のCILと自然に互換性がなく、インクリメンタルフェーズの間、将来のデータは厳密にアクセスできない。
本稿では,第0フェーズのデータ上に構築されたタスクを擬似CILタスクでRMMのポリシー関数を訓練し,ターゲットタスクに適用することによって,この問題を解決する。
RMMは2つのレベルを伝搬する: Level-1はメモリを古いクラスと新しいクラスに分割する方法を決定し、Level-2は各特定のクラスにメモリを割り当てる。
本質的に、これは任意のリプレイベースCILメソッドで使用できるメモリ管理の最適化可能で一般的な方法である。
評価のために、RMMを2つのトップパフォーマンスベースライン(LUCIR+AANetsとPOD+AANets [30])に接続し、3つのベンチマーク(CIFAR-100、ImageNet-Subset、ImageNet-Full)で実験を行う。
以上のベンチマークでは,POD+AANetsが3.6%,4.4%,1.9%向上した。
関連論文リスト
- vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - Efficiently Training 7B LLM with 1 Million Sequence Length on 8 GPUs [24.066283519769968]
大規模言語モデル(LLM)は、よりクリエイティブなアプリケーションを促進するために、拡張コンテキスト長を使用して訓練されている。
本稿では,メモリ管理を微粒化するための新しいフレームワークであるMEMOを提案する。
我々は,MEMOがMegatron-LMやDeepSpeedと比較して平均2.42倍,2.26倍のMFUを達成することを示す。
論文 参考訳(メタデータ) (2024-07-16T18:59:49Z) - PARMESAN: Parameter-Free Memory Search and Transduction for Dense Prediction Tasks [5.5127111704068374]
この研究は、トランスダクティブ推論によるディープラーニングの柔軟性に対処する。
我々は,高密度予測タスクを解くためにメモリモジュールを活用するスケーラブルな手法であるPARMESANを提案する。
提案手法は,一般的なアーキテクチャと互換性があり,標準で1D,2D,3Dグリッドベースのデータに転送する。
論文 参考訳(メタデータ) (2024-03-18T12:55:40Z) - GaLore: Memory-Efficient LLM Training by Gradient Low-Rank Projection [133.45193150403537]
LLM(Large Language Models)のトレーニングは、重み付けやGPU状態の増大によって、メモリ上の重大な問題が発生する。
本研究では,メモリ効率のトレーニング戦略としてグラディエント・ローランド・プロジェクション(GaLore)を提案する。
私たちの8ビットのGaLoreは、BF16ベースラインと比較して、メモリを82.5%、トレーニング総メモリを63.3%削減します。
論文 参考訳(メタデータ) (2024-03-06T07:29:57Z) - MAMBA: Multi-level Aggregation via Memory Bank for Video Object
Detection [35.16197118579414]
我々は,MAMBAと呼ばれるメモリバンクを用いたマルチレベル集約アーキテクチャを提案する。
具体的には,既存の手法の欠点を解消するために,メモリバンクが2つの新しい操作を施している。
従来の最先端手法と比較して,提案手法は速度と精度の両面で優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-01-18T12:13:06Z) - Continual Referring Expression Comprehension via Dual Modular
Memorization [133.46886428655426]
Referring Expression (REC) は、自然言語で記述された対象のイメージ領域をローカライズすることを目的としている。
既存のRECアルゴリズムは、モデルへのデータ供給のトレーニングを前もって行うと強く仮定する。
本稿では、入ってくるタスクのストリーム上でモデルが学習するRECの新しい設定である連続参照表現(CREC)を提案する。
学習済みの知識を忘れずに,スクラッチから繰り返し再学習することなく,逐次的タスクのモデルを継続的に改善するために,デュアルモジュール記憶法という効果的なベースライン手法を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:58:51Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - The act of remembering: a study in partially observable reinforcement
learning [24.945756871291348]
強化学習(Reinforcement Learning, RL)エージェントは、通常、アクションを選択するときの最後の観察のみを考慮するメモリレスポリシーを学ぶ。
エージェントに外部メモリと追加アクションを提供して、もし何かあれば、メモリに書き込まれるものを制御する。
我々の新しいメモリ形態は、よく確立された部分的に観測可能な領域におけるバイナリとLSTMベースのメモリより優れている。
論文 参考訳(メタデータ) (2020-10-05T02:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。