論文の概要: Self-Supervised Learning Aided Class-Incremental Lifelong Learning
- arxiv url: http://arxiv.org/abs/2006.05882v4
- Date: Wed, 7 Oct 2020 12:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 04:39:24.192587
- Title: Self-Supervised Learning Aided Class-Incremental Lifelong Learning
- Title(参考訳): 自己監督型学習支援クラスインクリメンタル生涯学習
- Authors: Song Zhang, Gehui Shen, Jinsong Huang, Zhi-Hong Deng
- Abstract要約: クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
- 参考スコア(独自算出の注目度): 17.151579393716958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lifelong or continual learning remains to be a challenge for artificial
neural network, as it is required to be both stable for preservation of old
knowledge and plastic for acquisition of new knowledge. It is common to see
previous experience get overwritten, which leads to the well-known issue of
catastrophic forgetting, especially in the scenario of class-incremental
learning (Class-IL). Recently, many lifelong learning methods have been
proposed to avoid catastrophic forgetting. However, models which learn without
replay of the input data, would encounter another problem which has been
ignored, and we refer to it as prior information loss (PIL). In training
procedure of Class-IL, as the model has no knowledge about following tasks, it
would only extract features necessary for tasks learned so far, whose
information is insufficient for joint classification. In this paper, our
empirical results on several image datasets show that PIL limits the
performance of current state-of-the-art method for Class-IL, the orthogonal
weights modification (OWM) algorithm. Furthermore, we propose to combine
self-supervised learning, which can provide effective representations without
requiring labels, with Class-IL to partly get around this problem. Experiments
show superiority of proposed method to OWM, as well as other strong baselines.
- Abstract(参考訳): 生涯学習や連続学習は、古い知識の保存と新しい知識の獲得にはプラスティックの両方を安定させる必要があるため、人工ニューラルネットワークにとっての課題である。
過去の経験が上書きされるのが一般的であり、特にクラスインクリメンタル・ラーニング(class-il)のシナリオでは、破滅的な忘れ方がよく知られている。
近年,破滅的な忘れ込みを避けるために,生涯学習法が数多く提案されている。
しかし、入力データを再生せずに学習するモデルは、無視された別の問題に遭遇し、それを事前情報損失(prior information loss, pil)と呼ぶ。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,いくつかの画像データセットを用いた実験結果から,pilはクラスilにおける現在の最先端手法である直交重み修正法(owm)の性能を制限していることが示された。
さらに,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
実験により,OWMに対する提案手法の優位性や,他の強力なベースラインが示された。
関連論文リスト
- Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - SRIL: Selective Regularization for Class-Incremental Learning [5.810252620242912]
クラスインクリメンタルラーニングは、この課題を克服するために、可塑性と安定性のバランスをとる統合モデルを作成することを目的としている。
本稿では,従来の知識を維持しつつ,新たな知識を受け入れる選択正規化手法を提案する。
CIFAR-100, ImageNet-Subset, ImageNet-Full を用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2023-05-09T05:04:35Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - Lifelong Intent Detection via Multi-Strategy Rebalancing [18.424132535727217]
本稿では,新しいデータに対するIDモデルを継続的に訓練し,新たな意図を学習するライフロングインテント検出(LID)を提案する。
既存の生涯学習手法は、通常、LIDタスクにおける古いデータと新しいデータの間の深刻な不均衡に悩まされる。
本稿では,コサイン正規化,階層的知識蒸留,クラス間マージン損失からなる,新しい生涯学習手法であるMulti-Strategy Rebalancing(MSR)を提案する。
論文 参考訳(メタデータ) (2021-08-10T04:35:13Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。