論文の概要: Cost-Efficient Continual Learning with Sufficient Exemplar Memory
- arxiv url: http://arxiv.org/abs/2502.07274v1
- Date: Tue, 11 Feb 2025 05:40:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:09:18.292869
- Title: Cost-Efficient Continual Learning with Sufficient Exemplar Memory
- Title(参考訳): 効率的な外部記憶によるコスト効率のよい連続学習
- Authors: Dongkyu Cho, Taesup Moon, Rumi Chunara, Kyunghyun Cho, Sungmin Cha,
- Abstract要約: 連続学習(CL)研究は通常、非常に制約のあるメモリ資源を前提としている。
本研究では,メモリが豊富である新しい環境におけるCLについて検討する。
提案手法は,計算コストを既存手法の4/3に削減しつつ,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 55.77835198580209
- License:
- Abstract: Continual learning (CL) research typically assumes highly constrained exemplar memory resources. However, in many real-world scenarios-especially in the era of large foundation models-memory is abundant, while GPU computational costs are the primary bottleneck. In this work, we investigate CL in a novel setting where exemplar memory is ample (i.e., sufficient exemplar memory). Unlike prior methods designed for strict exemplar memory constraints, we propose a simple yet effective approach that directly operates in the model's weight space through a combination of weight resetting and averaging techniques. Our method achieves state-of-the-art performance while reducing the computational cost to a quarter or third of existing methods. These findings challenge conventional CL assumptions and provide a practical baseline for computationally efficient CL applications.
- Abstract(参考訳): 連続学習(CL)研究は通常、非常に制約のあるメモリ資源を前提としている。
しかし、多くの現実のシナリオ、特に大規模な基盤モデルメモリの時代においては、GPU計算コストが主要なボトルネックとなっている。
本研究は, メモリが十分なメモリ(即ち, メモリが十分なメモリ)を持つ新しい環境において, CLについて検討する。
厳密なメモリ制約のために設計された従来の手法とは異なり、重み付けと平均化技術の組み合わせにより、モデルの重み空間内で直接動作する、単純で効果的なアプローチを提案する。
提案手法は,計算コストを既存手法の4/3に削減しつつ,最先端の性能を実現する。
これらの結果は従来のCL仮定に挑戦し、計算効率の良いCLアプリケーションのための実用的なベースラインを提供する。
関連論文リスト
- Budgeted Online Continual Learning by Adaptive Layer Freezing and Frequency-based Sampling [19.447914903112366]
本稿では,演算およびメモリ予算の指標として,Byteにおける浮動小数点演算と総メモリサイズを提案する。
CL法を限定的な全予算で改善するために,より少ない情報バッチのために層を更新しない適応層凍結を提案する。
さらに,より少ないイテレーションでランダム検索を使用することで,モデルが同じ量の知識を学習できるメモリ検索手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T16:00:00Z) - Continual Learning on a Diet: Learning from Sparsely Labeled Streams Under Constrained Computation [123.4883806344334]
本研究では,学習アルゴリズムが学習段階ごとに制限された計算予算を付与する,現実的な連続学習環境について検討する。
この設定を,スパースラベル率の高い大規模半教師付き連続学習シナリオに適用する。
広範に分析と改善を行った結果,DietCLはラベル空間,計算予算,その他様々な改善の完全な範囲で安定していることがわかった。
論文 参考訳(メタデータ) (2024-04-19T10:10:39Z) - Online Continual Learning Without the Storage Constraint [67.66235695269839]
我々は、kNN分類器を固定された事前訓練された特徴抽出器とともに継続的に更新する簡単なアルゴリズムを提案する。
高速に変化するストリームに適応し、安定性のギャップをゼロにし、小さな計算予算内で動作し、機能のみを格納することで、ストレージ要件を低くすることができる。
2つの大規模オンライン連続学習データセットにおいて、既存の手法を20%以上の精度で上回ることができる。
論文 参考訳(メタデータ) (2023-05-16T08:03:07Z) - Computationally Budgeted Continual Learning: What Does Matter? [128.0827987414154]
CL (Continuous Learning) は、新しいデータに適応しながら、以前の知識を保存し、分布の異なる入力データのストリーム上でモデルを逐次訓練することを目的としている。
現在のCL文献では、以前のデータへのアクセス制限に焦点が当てられているが、トレーニングの計算予算に制約は課されていない。
本稿では,この問題を大規模ベンチマークで再検討し,計算制約条件下での従来のCL手法の性能解析を行う。
論文 参考訳(メタデータ) (2023-03-20T14:50:27Z) - Real-Time Evaluation in Online Continual Learning: A New Hope [104.53052316526546]
計算コストに関して,現在の継続学習(CL)手法を評価した。
簡単なベースラインは、この評価の下で最先端のCL法より優れている。
これは、既存のCL文献の大部分は、実用的でない特定の種類のストリームに適合していることを驚くほど示唆している。
論文 参考訳(メタデータ) (2023-02-02T12:21:10Z) - Neural SDEs for Conditional Time Series Generation and the
Signature-Wasserstein-1 metric [0.0]
(連続) 生成共役ネットワーク(GAN)は, 非常に高次元空間上の(条件付き)分布を近似する能力により, 近年大きな成功を収めている。
非常に不安定で、特に時系列設定でトレーニングするのに計算コストがかかる。
近年、(条件付き)GANフレームワークによって与えられるmin-maxの定式化を古典的な最小化問題に変換することができるパスのシグネチャと呼ばれる、粗いパス理論におけるキーオブジェクトの使用が提案されている。
この方法はメモリコストの点で非常に高価であり、時には禁止されることがある。
論文 参考訳(メタデータ) (2023-01-03T19:08:01Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Semantically Constrained Memory Allocation (SCMA) for Embedding in
Efficient Recommendation Systems [27.419109620575313]
ディープラーニングモデルの重要な課題は、数百万のカテゴリクラスやトークンを扱うことだ。
本稿では,記憶の共有を意味情報の重なりに比例して共有する,新しいメモリ共有埋め込み方式を提案する。
性能を維持しながらメモリフットプリントの大幅な削減を示す。
論文 参考訳(メタデータ) (2021-02-24T19:55:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。