論文の概要: A Closer Look at Rehearsal-Free Continual Learning
- arxiv url: http://arxiv.org/abs/2203.17269v1
- Date: Thu, 31 Mar 2022 17:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 13:21:20.930692
- Title: A Closer Look at Rehearsal-Free Continual Learning
- Title(参考訳): リハーサルフリー連続学習について
- Authors: James Seale Smith, Junjiao Tian, Yen-Chang Hsu, Zsolt Kira
- Abstract要約: リハーサルを伴わない強力な連続学習性能を実現する方法を示す。
まず、パラメータ正規化手法が1つの拡張タスクのリハーサルなし連続学習に失敗するという一般的な仮定を論じる。
次に、リハーサルなし連続学習における事前学習モデルからの知識を活用する方法について検討し、バニラL2パラメータ正則化がEWCパラメータ正則化および特徴蒸留より優れていることを示す。
- 参考スコア(独自算出の注目度): 28.50212489965281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning describes a setting where machine learning models learn
novel concepts from continuously shifting training data, while simultaneously
avoiding degradation of knowledge on previously seen classes (a phenomenon
known as the catastrophic forgetting problem) which may disappear from the
training data for extended periods of time. Current approaches for continual
learning of a single expanding task (aka class-incremental continual learning)
require extensive rehearsal of previously seen data to avoid this degradation
of knowledge. Unfortunately, rehearsal comes at a sharp cost to memory and
computation, and it may also violate data-privacy. Instead, we explore
combining knowledge distillation and parameter regularization in new ways to
achieve strong continual learning performance without rehearsal. Specifically,
we take a deep dive into common continual learning techniques: prediction
distillation, feature distillation, L2 parameter regularization, and EWC
parameter regularization. We first disprove the common assumption that
parameter regularization techniques fail for rehearsal-free continual learning
of a single, expanding task. Next, we explore how to leverage knowledge from a
pre-trained model in rehearsal-free continual learning and find that vanilla L2
parameter regularization outperforms EWC parameter regularization and feature
distillation. We then highlight the impact of the rehearsal-free continual
learning settings with a classifier expansion benchmark, showing that a
strategy based on our findings combined with a positive/negative label
balancing heuristic can close the performance gap between the upper bound and
the existing strategies by up to roughly 50%. Finally, we show that a simple
method consisting of pre-training, L2 regularization, and prediction
distillation can even outperform rehearsal-based methods on the common
CIFAR-100 benchmark.
- Abstract(参考訳): 連続学習は、機械学習モデルが、トレーニングデータを継続的にシフトすることから新しい概念を学習するのと同時に、トレーニングデータから長期にわたって消える可能性のある、それまでに見られたクラス(破滅的な忘れる問題として知られる現象)の知識の劣化を回避している。
1つの拡張タスク(いわゆるクラス増分連続学習)の継続的な学習への現在のアプローチは、この知識の劣化を避けるために、これまで見られたデータを広範囲にリハーサルする必要がある。
残念ながら、リハーサルはメモリと計算に多大なコストがかかり、データプライバシにも違反する可能性がある。
代わりに,知識蒸留とパラメータ正規化を組み合わせることにより,リハーサルを伴わずに継続学習性能の向上を図る。
具体的には、予測蒸留、特徴蒸留、L2パラメータ正則化、EWCパラメータ正則化など、一般的な連続学習手法について深く研究する。
まず、パラメータ正規化手法が1つの拡張タスクのリハーサルなし連続学習に失敗するという一般的な仮定を論じる。
次に、リハーサルなし連続学習における事前学習モデルからの知識を活用する方法について検討し、バニラL2パラメータ正則化がEWCパラメータ正則化および特徴蒸留より優れていることを示す。
次に,リハーサルフリーの連続学習環境の影響を分類器拡張ベンチマークで強調し,この結果に基づく戦略とポジティブ/負のラベルバランスのヒューリスティックが組み合わさることで,上位戦略と既存戦略のパフォーマンスギャップを最大50%削減できることを示した。
最後に,CIFAR-100ベンチマークにおいて,事前学習,L2正則化,予測蒸留による簡易な手法がリハーサル法よりも優れていることを示す。
関連論文リスト
- Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Contrastive Continual Learning with Importance Sampling and
Prototype-Instance Relation Distillation [14.25441464051506]
本稿では,従来のデータ分布を復元し,知識の保存を目的としたコントラスト連続学習(Contrastive Continual Learning via Importance Smpling, CCLIS)を提案する。
また,プロトタイプとサンプル表現の関係を維持する技術であるPRD(Prototype-instance Relation Distillation)の損失について述べる。
論文 参考訳(メタデータ) (2024-03-07T15:47:52Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Continually Learning Self-Supervised Representations with Projected
Functional Regularization [39.92600544186844]
近年の自己教師あり学習手法は高品質な画像表現を学習でき、教師ありの手法でギャップを埋めている。
これらの手法は、新たな知識を段階的に取得することができない -- 実際、主にIDデータによる事前学習フェーズとしてのみ使用される。
従来の知識を忘れないように,機能正規化の利用を提案する。
論文 参考訳(メタデータ) (2021-12-30T11:59:23Z) - Learning to Prompt for Continual Learning [34.609384246149325]
本研究は,テスト時にタスクの同一性にアクセスすることなく,より簡潔なメモリシステムのトレーニングを目的とした,連続学習のための新しいパラダイムを提案する。
本手法は,タスク遷移の異なるタスクを逐次学習するための事前学習モデル(L2P)を動的に学習する。
目的は、モデル予測を指示するプロンプトを最適化し、モデル可塑性を維持しながら、タスク不変およびタスク固有知識を明示的に管理することである。
論文 参考訳(メタデータ) (2021-12-16T06:17:07Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Continual Deep Learning by Functional Regularisation of Memorable Past [95.97578574330934]
知的システムにとって、新しいスキルを継続的に学習することは重要だが、標準的なディープラーニング手法は、過去の破滅的な忘れ物に悩まされている。
本稿では, 過去の記憶に残るいくつかの例を, 忘れることを避けるために活用する機能正規化手法を提案する。
提案手法は,標準ベンチマーク上での最先端性能を実現し,正規化とメモリベースの手法を自然に組み合わせた生涯学習の新たな方向性を開拓する。
論文 参考訳(メタデータ) (2020-04-29T10:47:54Z) - Continual Learning with Node-Importance based Adaptive Group Sparse
Regularization [30.23319528662881]
AGS-CL(Adaptive Group Sparsity based Continual Learning)と呼ばれる新しい正規化に基づく連続学習手法を提案する。
提案手法は,各ノードが重要度に基づいて学習する際の2つの罰則を選択的に利用し,各タスクを学習した後に適応的に更新する。
論文 参考訳(メタデータ) (2020-03-30T18:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。