論文の概要: SRIL: Selective Regularization for Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2305.05175v1
- Date: Tue, 9 May 2023 05:04:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 13:57:08.688052
- Title: SRIL: Selective Regularization for Class-Incremental Learning
- Title(参考訳): SRIL: クラス増分学習のための選択正規化
- Authors: Jisu Han, Jaemin Na, Wonjun Hwang
- Abstract要約: クラスインクリメンタルラーニングは、この課題を克服するために、可塑性と安定性のバランスをとる統合モデルを作成することを目的としている。
本稿では,従来の知識を維持しつつ,新たな知識を受け入れる選択正規化手法を提案する。
CIFAR-100, ImageNet-Subset, ImageNet-Full を用いて提案手法の有効性を検証する。
- 参考スコア(独自算出の注目度): 5.810252620242912
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human intelligence gradually accepts new information and accumulates
knowledge throughout the lifespan. However, deep learning models suffer from a
catastrophic forgetting phenomenon, where they forget previous knowledge when
acquiring new information. Class-Incremental Learning aims to create an
integrated model that balances plasticity and stability to overcome this
challenge. In this paper, we propose a selective regularization method that
accepts new knowledge while maintaining previous knowledge. We first introduce
an asymmetric feature distillation method for old and new classes inspired by
cognitive science, using the gradient of classification and knowledge
distillation losses to determine whether to perform pattern completion or
pattern separation. We also propose a method to selectively interpolate the
weight of the previous model for a balance between stability and plasticity,
and we adjust whether to transfer through model confidence to ensure the
performance of the previous class and enable exploratory learning. We validate
the effectiveness of the proposed method, which surpasses the performance of
existing methods through extensive experimental protocols using CIFAR-100,
ImageNet-Subset, and ImageNet-Full.
- Abstract(参考訳): 人間の知性は新しい情報を受け入れ、生涯を通じて知識を蓄積する。
しかし、深層学習モデルは、新しい情報を取得する際に以前の知識を忘れてしまうような破滅的な現象に苦しむ。
クラスインクリメンタルラーニングは、この課題を克服するために、可塑性と安定性のバランスをとる統合モデルを作成することを目的としている。
本稿では,従来の知識を維持しつつ新しい知識を受け入れる選択的正規化手法を提案する。
まず,認知科学にインスパイアされた新旧クラスの非対称な特徴蒸留法を紹介し,分類の勾配と知識蒸留の損失を利用して,パターン完備化やパターン分離を行うかを決定する。
また,安定性と可塑性のバランスを保ちつつ,先行モデルの重みを選択的に補間する手法を提案し,モデルの信頼性を保ち,先行クラスの性能を確実にし,探索学習を可能にする。
提案手法の有効性を検証するために,cifar-100,imagenet-subset,imagenet-fullを用いた広範囲な実験プロトコルを用いた。
関連論文リスト
- Continual Learning with Weight Interpolation [4.689826327213979]
継続的な学習には、モデルが以前のタスクからの知識を維持しながら、新しいタスクに適応する必要がある。
本稿では,重み強化手法を用いた継続学習手法を提案する。
論文 参考訳(メタデータ) (2024-04-05T10:25:40Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Adaptively Integrated Knowledge Distillation and Prediction Uncertainty
for Continual Learning [71.43841235954453]
現在のディープラーニングモデルは、新しい知識を継続的に学習するときに、古い知識を破滅的に忘れることに悩まされることが多い。
この問題を軽減する既存の戦略は、古い知識(安定性)の維持と新しい知識(塑性)の学習のトレードオフを解消することが多い。
論文 参考訳(メタデータ) (2023-01-18T05:36:06Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。