論文の概要: Prototypical Exemplar Condensation for Memory-efficient Online Continual Learning
- arxiv url: http://arxiv.org/abs/2603.13804v1
- Date: Sat, 14 Mar 2026 07:24:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.418998
- Title: Prototypical Exemplar Condensation for Memory-efficient Online Continual Learning
- Title(参考訳): 記憶効率のよいオンライン連続学習のための原型外的凝縮法
- Authors: Minh-Duong Nguyen, Thien-Thanh Dao, Le-Tuan Nguyen, Dung D. Le, Kok-Seng Wong,
- Abstract要約: リハーサルに基づく連続学習は、以前のタスクからのサンプルのサブセットをリプレイするために保持することにより、破滅的な忘れを緩和する。
本稿では, メモリフットプリントをさらに圧縮し, メモリフットプリントを合成, 記憶することで, 代表プロトタイプを形成することを提案する。
学習中に前者のデータの合成変種を生成するプロトタイプベースの拡張機構を導入し,CL性能を向上する。
- 参考スコア(独自算出の注目度): 8.074640942193644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rehearsal-based continual learning (CL) mitigates catastrophic forgetting by maintaining a subset of samples from previous tasks for replay. Existing studies primarily focus on optimizing memory storage through coreset selection strategies. While these methods are effective, they typically require storing a substantial number of samples per class (SPC), often exceeding 20, to maintain satisfactory performance. In this work, we propose to further compress the memory footprint by synthesizing and storing prototypical exemplars, which can form representative prototypes when passed through the feature extractor. Owing to their representative nature, these exemplars enable the model to retain previous knowledge using only a small number of samples while preserving privacy. Moreover, we introduce a perturbation-based augmentation mechanism that generates synthetic variants of previous data during training, thereby enhancing CL performance. Extensive evaluations on widely used benchmark datasets and settings demonstrate that the proposed algorithm achieves superior performance compared to existing baselines, particularly in scenarios involving large-scale datasets and a high number of tasks.
- Abstract(参考訳): リハーサルベースの連続学習(CL)は、過去のタスクからのサンプルのサブセットをリプレイするために維持することにより、破滅的な忘れを緩和する。
既存の研究は主にコアセット選択戦略によるメモリストレージの最適化に重点を置いている。
これらの手法は有効であるが、典型的には、満足なパフォーマンスを維持するために、クラス毎にかなりの数のサンプル(SPC)を格納する必要がある。
本研究では,特徴抽出器を経由した場合に代表的プロトタイプを生成可能なプロトタイプを合成し,記憶することで,メモリフットプリントをさらに圧縮することを提案する。
それらの代表的性質のため、これらの例は、プライバシを保ちながら少数のサンプルのみを使用して、モデルが以前の知識を保持することを可能にする。
さらに、トレーニング中に前のデータの合成変種を生成する摂動に基づく拡張機構を導入し、CL性能を向上する。
広く使用されているベンチマークデータセットと設定の大規模な評価は、提案アルゴリズムが既存のベースライン、特に大規模データセットや多数のタスクを含むシナリオにおいて、既存のベースラインよりも優れたパフォーマンスを達成することを示す。
関連論文リスト
- The Power of Certainty: How Confident Models Lead to Better Segmentation [0.0]
本稿では,トレーニング中の過去のデータストレージのみを活用することにより,最先端モデルよりも優れた信頼性に基づく自己蒸留手法を提案する。
本手法は,複数の臨床センターから収集したデータセットを網羅的に一般化する。
論文 参考訳(メタデータ) (2025-07-14T17:12:43Z) - Curvature Enhanced Data Augmentation for Regression [4.910937238451485]
回帰タスクに対する曲率強化マニフォールドサンプリング(CEMS)手法を提案する。
CEMSは、ディストリビューションとアウト・オブ・ディストリビューションの両方のシナリオで優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2025-06-07T16:18:37Z) - Dynamic Dual Buffer with Divide-and-Conquer Strategy for Online Continual Learning [10.599650191041217]
オンライン連続学習(OCL)は、バッチからバッチまでのオンラインフォーマットで新しいデータが到着する複雑な学習環境を提供する。
本稿では、動的情報を保持するための短期記憶システムと、永続的な知識をアーカイブする長期記憶システムを組み込んだ革新的なメモリフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-23T16:57:04Z) - Prototype-Based Continual Learning with Label-free Replay Buffer and Cluster Preservation Loss [3.824522034247845]
連続学習技術は、単純なリプレイサンプル選択プロセスを使用し、その後のタスクでそれらを使用する。
本稿では,ラベルのないプロトタイプを自動的に選択することで,これから離れる。
クラスインクリメンタルとドメインインクリメンタルのシナリオでは、"Push-away"と"pull-toward"のメカニズムも導入されている。
論文 参考訳(メタデータ) (2025-04-09T19:26:26Z) - A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - Prototype-Sample Relation Distillation: Towards Replay-Free Continual
Learning [14.462797749666992]
本稿では,表現とクラスプロトタイプを共同で学習するための総合的なアプローチを提案する。
本稿では,新しいタスクデータと比較して,クラスプロトタイプの相対的類似性を維持することを制約する新しい蒸留損失を提案する。
この手法はタスクインクリメンタル設定における最先端性能を得る。
論文 参考訳(メタデータ) (2023-03-26T16:35:45Z) - Memory Replay with Data Compression for Continual Learning [80.95444077825852]
古いトレーニングサンプルの記憶コストを低減するため,データ圧縮によるメモリリプレイを提案する。
我々はこれを、クラスインクリメンタル学習のいくつかのベンチマークと、自律運転のためのオブジェクト検出の現実的なシナリオにおいて、広範囲に検証する。
論文 参考訳(メタデータ) (2022-02-14T10:26:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。