論文の概要: DLCFT: Deep Linear Continual Fine-Tuning for General Incremental
Learning
- arxiv url: http://arxiv.org/abs/2208.08112v1
- Date: Wed, 17 Aug 2022 06:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:08:54.392982
- Title: DLCFT: Deep Linear Continual Fine-Tuning for General Incremental
Learning
- Title(参考訳): DLCFT: インクリメンタル学習のための深い線形連続ファインチューニング
- Authors: Hyounguk Shon, Janghyeon Lee, Seung Hwan Kim, Junmo Kim
- Abstract要約: 事前学習した表現からモデルを連続的に微調整するインクリメンタルラーニングのための代替フレームワークを提案する。
本手法は, ニューラルネットワークの線形化手法を利用して, 単純かつ効果的な連続学習を行う。
本手法は,データ増分,タスク増分およびクラス増分学習問題において,一般的な連続学習設定に適用可能であることを示す。
- 参考スコア(独自算出の注目度): 29.80680408934347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained representation is one of the key elements in the success of
modern deep learning. However, existing works on continual learning methods
have mostly focused on learning models incrementally from scratch. In this
paper, we explore an alternative framework to incremental learning where we
continually fine-tune the model from a pre-trained representation. Our method
takes advantage of linearization technique of a pre-trained neural network for
simple and effective continual learning. We show that this allows us to design
a linear model where quadratic parameter regularization method is placed as the
optimal continual learning policy, and at the same time enjoying the high
performance of neural networks. We also show that the proposed algorithm
enables parameter regularization methods to be applied to class-incremental
problems. Additionally, we provide a theoretical reason why the existing
parameter-space regularization algorithms such as EWC underperform on neural
networks trained with cross-entropy loss. We show that the proposed method can
prevent forgetting while achieving high continual fine-tuning performance on
image classification tasks. To show that our method can be applied to general
continual learning settings, we evaluate our method in data-incremental,
task-incremental, and class-incremental learning problems.
- Abstract(参考訳): 事前学習された表現は、現代のディープラーニングの成功の鍵となる要素の1つである。
しかし、継続学習手法に関する既存の研究は、主にスクラッチから漸進的にモデルを学習することに焦点を当てている。
本稿では,事前学習された表現からモデルを継続的に微調整する,インクリメンタル学習の代替フレームワークについて検討する。
本手法は, ニューラルネットワークの線形化手法を利用して, 単純かつ効果的な連続学習を行う。
これにより、2次パラメータ正規化法を最適連続学習ポリシーとして位置づける線形モデルの設計が可能であり、同時にニューラルネットワークの性能も向上することを示す。
また,提案アルゴリズムにより,パラメータ正規化手法をクラス増分問題に適用できることを示す。
さらに、ewcのような既存のパラメータ空間正規化アルゴリズムが、クロスエントロピー損失を訓練したニューラルネットワークに過小評価される理由を理論的に提示する。
提案手法は,画像分類タスクにおいて,連続的な微調整性能を保ちながら,忘れを防止できることを示す。
本手法を総合的な連続学習環境に適用できることを示すため,本手法をデータインクリメンタル,タスクインクリメンタル,クラスインクリメンタル学習問題において評価する。
関連論文リスト
- Active Learning of Deep Neural Networks via Gradient-Free Cutting Planes [40.68266398473983]
本研究では,任意の深さのReLULUネットワークに対して,斬新な切削平面法による能動的学習手法について検討する。
非線形収束にもかかわらず、これらのアルゴリズムはディープニューラルネットワークに拡張可能であることを実証する。
提案手法は,データ実験と実データセットの分類の両方を通じて,一般的な深層学習ベースラインに対する有効性を示す。
論文 参考訳(メタデータ) (2024-10-03T02:11:35Z) - SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - On Newton's Method to Unlearn Neural Networks [44.85793893441989]
ニューラルネット(NN)に対する近似的未学習アルゴリズムを探索し、同じモデルを再学習したオラクルに返却する。
本稿では, 立方正則化を利用してヘッセン系縮退を効果的に処理するCureNewton法を提案する。
異なるモデルとデータセットをまたいだ実験により、我々の手法は、実践的な未学習環境で最先端のアルゴリズムと競合する未学習性能を達成できることを示した。
論文 参考訳(メタデータ) (2024-06-20T17:12:20Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - Neural Architecture for Online Ensemble Continual Learning [6.241435193861262]
我々は、エンドツーエンドのニューラルネットワークのアンサンブルを効率的に訓練できる、完全に微分可能なアンサンブル法を提案する。
提案手法は,メモリバッファを使わずにSOTA結果が得られ,参照手法よりも明らかに優れている。
論文 参考訳(メタデータ) (2022-11-27T23:17:08Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - Continual Deep Learning by Functional Regularisation of Memorable Past [95.97578574330934]
知的システムにとって、新しいスキルを継続的に学習することは重要だが、標準的なディープラーニング手法は、過去の破滅的な忘れ物に悩まされている。
本稿では, 過去の記憶に残るいくつかの例を, 忘れることを避けるために活用する機能正規化手法を提案する。
提案手法は,標準ベンチマーク上での最先端性能を実現し,正規化とメモリベースの手法を自然に組み合わせた生涯学習の新たな方向性を開拓する。
論文 参考訳(メタデータ) (2020-04-29T10:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。