論文の概要: Adversarial Pseudo-replay for Exemplar-free Class-incremental Learning
- arxiv url: http://arxiv.org/abs/2511.17973v1
- Date: Sat, 22 Nov 2025 08:20:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.558692
- Title: Adversarial Pseudo-replay for Exemplar-free Class-incremental Learning
- Title(参考訳): 初等中等教育における対人擬似リプレイ
- Authors: Hiroto Honda,
- Abstract要約: Exemplar-free class-incremental Learning (EFCIL) は、ストレージの制約やプライバシー上の懸念により、以前のイメージを保存することなく、新しいクラスを学習しながら、以前のタスクで得た古い知識を維持することを目的としている。
本稿では,新たなタスクのイメージを敵攻撃で摂動させる手法であるAPRを導入し,オンライン上で擬似再生画像を再生サンプルを保存せずに合成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exemplar-free class-incremental learning (EFCIL) aims to retain old knowledge acquired in the previous task while learning new classes, without storing the previous images due to storage constraints or privacy concerns. In EFCIL, the plasticity-stability dilemma, learning new tasks versus catastrophic forgetting, is a significant challenge, primarily due to the unavailability of images from earlier tasks. In this paper, we introduce adversarial pseudo-replay (APR), a method that perturbs the images of the new task with adversarial attack, to synthesize the pseudo-replay images online without storing any replay samples. During the new task training, the adversarial attack is conducted on the new task images with augmented old class mean prototypes as targets, and the resulting images are used for knowledge distillation to prevent semantic drift. Moreover, we calibrate the covariance matrices to compensate for the semantic drift after each task, by learning a transfer matrix on the pseudo-replay samples. Our method reconciles stability and plasticity, achieving state-of-the-art on challenging cold-start settings of the standard EFCIL benchmarks.
- Abstract(参考訳): Exemplar-free class-incremental Learning (EFCIL) は、ストレージの制約やプライバシー上の懸念により、以前のイメージを保存することなく、新しいクラスを学習しながら、以前のタスクで得た古い知識を維持することを目的としている。
EFCILでは、新しいタスクと破滅的な忘れを学習する可塑性安定性ジレンマは、主に以前のタスクからの画像が利用できないため、重大な課題である。
本稿では,新たなタスクのイメージを敵攻撃で摂動させる手法であるAPRを導入し,オンライン上で擬似再生画像を再生サンプルを保存せずに合成する。
新たな課題訓練において, 改良型平均プロトタイプを目標としたタスクイメージに対して, 対角攻撃を行い, 得られた画像を用いて知識蒸留を行い, セマンティックドリフトを防止する。
さらに、擬似再生サンプルの移動行列を学習することにより、共分散行列を校正し、各タスク後の意味的ドリフトを補償する。
本手法は安定性と可塑性を両立させ,標準EFCILベンチマークのコールドスタート設定に挑戦する上で最先端の手法を実現する。
関連論文リスト
- CEAT: Continual Expansion and Absorption Transformer for Non-Exemplar
Class-Incremental Learning [34.59310641291726]
現実のアプリケーションでは、動的シナリオは、古い知識を忘れずに新しいタスクを継続的に学習する能力を持つ必要がある。
連続膨張吸収変圧器(CEAT)という新しいアーキテクチャを提案する。
このモデルは、凍結した前のパラメータと平行に拡散層を拡張することで、新しい知識を学ぶことができる。
モデルの学習能力を向上させるために,特徴空間における古クラスと新クラスの重複を低減するために,新しいプロトタイプを設計した。
論文 参考訳(メタデータ) (2024-03-11T12:40:12Z) - Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - Continual Diffusion with STAMINA: STack-And-Mask INcremental Adapters [67.28751868277611]
近年の研究では、テキストから画像への拡散モデルを複数の微細な概念に逐次的にカスタマイズできることが示されている。
我々は、新しいタスクを学習する能力が、長いシーケンスで飽和に達することを示す。
本稿では,低ランクの注意マーク付きアダプタとカスタマイズトークンからなるSTAMINA(STack-And-Mask Incremental Adapters)を提案する。
論文 参考訳(メタデータ) (2023-11-30T18:04:21Z) - DiffusePast: Diffusion-based Generative Replay for Class Incremental
Semantic Segmentation [73.54038780856554]
クラスインクリメンタルセマンティック(CISS)は、新たに追加されたクラスを漸進的に学習することで、従来のセグメンテーションタスクを拡張する。
これは、事前訓練されたGANから生成された古いクラスサンプルを再生するものである。
そこで我々はDiffusePastを提案する。DiffusePastは拡散型生成再生モジュールを特徴とする新しいフレームワークで、異なる命令でより信頼性の高いマスクで意味論的に正確な画像を生成する。
論文 参考訳(メタデータ) (2023-08-02T13:13:18Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - Exemplar-free Continual Learning of Vision Transformers via Gated
Class-Attention and Cascaded Feature Drift Compensation [38.40290722515599]
非定型連続学習の主な課題は、学習者の可塑性を維持することであり、それまでの学習課題の破滅的な忘れを生じさせることはない。
本稿では,新しいタスクを学習する際に,背骨内の特徴ドリフトを許容する特徴ドリフト補償法を提案する。
論文 参考訳(メタデータ) (2022-11-22T14:13:15Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z) - Memory-Efficient Incremental Learning Through Feature Adaptation [71.1449769528535]
本稿では,以前学習したクラスから,画像の特徴記述子を保存するインクリメンタルラーニングのアプローチを提案する。
画像のより低次元の機能埋め込みを維持することで、メモリフットプリントが大幅に削減される。
実験の結果,インクリメンタルラーニングベンチマークにおいて,最先端の分類精度が得られた。
論文 参考訳(メタデータ) (2020-04-01T21:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。