論文の概要: Gated Class-Attention with Cascaded Feature Drift Compensation for
Exemplar-free Continual Learning of Vision Transformers
- arxiv url: http://arxiv.org/abs/2211.12292v1
- Date: Tue, 22 Nov 2022 14:13:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:18:33.090218
- Title: Gated Class-Attention with Cascaded Feature Drift Compensation for
Exemplar-free Continual Learning of Vision Transformers
- Title(参考訳): 視覚変換器の非定型連続学習のためのカスケード特徴量補償付きゲーテッドクラスアテンション
- Authors: Marco Cotogni, Fei Yang, Claudio Cusano, Andrew D. Bagdanov, Joost van
de Weijer
- Abstract要約: 本稿では,ViTsの非正規クラスインクリメンタルトレーニングのための新しい手法を提案する。
本手法は,過去のタスクの代表例を格納することなく,既存の最先端メソッドよりも優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 38.40290722515599
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper we propose a new method for exemplar-free class incremental
training of ViTs. The main challenge of exemplar-free continual learning is
maintaining plasticity of the learner without causing catastrophic forgetting
of previously learned tasks. This is often achieved via exemplar replay which
can help recalibrate previous task classifiers to the feature drift which
occurs when learning new tasks. Exemplar replay, however, comes at the cost of
retaining samples from previous tasks which for some applications may not be
possible. To address the problem of continual ViT training, we first propose
gated class-attention to minimize the drift in the final ViT transformer block.
This mask-based gating is applied to class-attention mechanism of the last
transformer block and strongly regulates the weights crucial for previous
tasks. Secondly, we propose a new method of feature drift compensation that
accommodates feature drift in the backbone when learning new tasks. The
combination of gated class-attention and cascaded feature drift compensation
allows for plasticity towards new tasks while limiting forgetting of previous
ones. Extensive experiments performed on CIFAR-100, Tiny-ImageNet and
ImageNet100 demonstrate that our method outperforms existing exemplar-free
state-of-the-art methods without the need to store any representative exemplars
of past tasks.
- Abstract(参考訳): 本稿では,ViTの非正規クラスインクリメンタルトレーニングのための新しい手法を提案する。
exemplar-free 連続学習の主な課題は、学習者の可塑性を維持することである。
これはしばしば、以前のタスク分類器を新しいタスクを学ぶときに発生するフィーチャードリフトに再分類するのに役立ちます。
しかし、Exemplar Replayは、一部のアプリケーションでは不可能な、以前のタスクからのサンプルを保持するコストがかかる。
連続vit訓練の問題に対処するために,まず,最終vit変圧器ブロックのドリフトを最小化するゲート付きクラスアテンションを提案する。
このマスクベースのゲーティングは、最後の変圧器ブロックのクラスアテンション機構に適用され、以前のタスクに不可欠な重みを強く制御する。
次に,新しいタスクを学習する際にバックボーン内の特徴ドリフトに対応する新しい特徴ドリフト補償法を提案する。
ゲート型クラスアテンションとカスケード型機能ドリフト補償の組み合わせにより、以前のタスクの忘れを制限しながら、新しいタスクに対する可塑性を実現することができる。
CIFAR-100, Tiny-ImageNet, ImageNet100で行った大規模な実験により, 過去のタスクの代表例を格納することなく, 既存の最先端のメソッドよりも優れていたことが実証された。
関連論文リスト
- Continual Diffuser (CoD): Mastering Continual Offline Reinforcement Learning with Experience Rehearsal [54.93261535899478]
強化学習のロボット制御のような現実世界の応用では、タスクが変化し、新しいタスクが順次発生する。
この状況は、タスクの変更に適応し、獲得した知識を保持するエージェントを訓練する上で、可塑性-安定トレードオフという新たな課題を生じさせる。
本研究では,連続拡散器(Continuous diffuser,CoD)と呼ばれるリハーサルに基づく連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-09-04T08:21:47Z) - Exemplar-free Continual Representation Learning via Learnable Drift Compensation [24.114984920918715]
本稿では,任意の背骨のドリフトを効果的に軽減できるLearnerable Drift Compensation (LDC)を提案する。
LDCは、既存の継続的学習アプローチの上に、素早く簡単に統合できます。
教師付き設定と半教師付き設定の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-07-11T14:23:08Z) - Resurrecting Old Classes with New Data for Exemplar-Free Continual Learning [13.264972882846966]
継続的な学習方法は破滅的な忘れ込みに苦しむことが知られている。
既存のexemplar-freeメソッドは、通常、最初のタスクがその後のタスクよりもかなり大きい設定で評価される。
本稿では, 従来のモデル埋め込み空間において, 組込みが旧型プロトタイプに近いように, 現在のサンプルを逆向きに摂動させることを提案する。
次に,従来のモデルから新しいモデルへの埋め込み空間のドリフトを摂動画像を用いて推定し,それに応じてプロトタイプを補償する。
論文 参考訳(メタデータ) (2024-05-29T13:31:42Z) - Beyond Anti-Forgetting: Multimodal Continual Instruction Tuning with Positive Forward Transfer [21.57847333976567]
MCIT(Multimodal Continual Instruction Tuning)は、Multimodal Large Language Models(MLLM)が、高価なリトレーニングなしで継続的な要求を満たすことを可能にする。
MCITは、破滅的な忘れ(古い知識が忘れられている)と負の転送という2つの大きな障害に直面している。
本稿では,これらの問題に対処するため,Pwd-Prompt Forward Transfer(Pwd-Prompt)を用いたPrompt Tuningを提案する。
論文 参考訳(メタデータ) (2024-01-17T12:44:17Z) - Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - Continual Learning via Learning a Continual Memory in Vision Transformer [7.116223171323158]
視覚変換器(ViT)を用いたタスク増分連続学習(TCL)について検討する。
私たちのゴールは、タスクのシナジーを学習することで、悲惨な忘れをすることなく、ストリーミングタスク全体のパフォーマンスを改善することです。
タスクシナジーを効果的に学習するための階層型タスクシネギー探索-探索(HEE)サンプリングベースニューラルアーキテクチャサーチ(NAS)手法を提案する。
論文 参考訳(メタデータ) (2023-03-14T21:52:27Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - In Defense of the Learning Without Forgetting for Task Incremental
Learning [91.3755431537592]
破滅的な忘れは、継続的な学習システムへの道のりにおける大きな課題の1つだ。
本稿では, タスクインクリメンタルシナリオにおいて, 正しいアーキテクチャと標準的な拡張セットを併用して, LwF が得られた結果が最新のアルゴリズムを上回り, タスクインクリメンタルシナリオが実現されたことを示す。
論文 参考訳(メタデータ) (2021-07-26T16:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。