論文の概要: Continual Learning with Pretrained Backbones by Tuning in the Input
Space
- arxiv url: http://arxiv.org/abs/2306.02947v1
- Date: Mon, 5 Jun 2023 15:11:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 14:22:39.000029
- Title: Continual Learning with Pretrained Backbones by Tuning in the Input
Space
- Title(参考訳): 入力空間におけるチューニングによる事前学習されたバックボーンによる連続学習
- Authors: Simone Marullo and Matteo Tiezzi and Marco Gori and Stefano Melacci
and Tinne Tuytelaars
- Abstract要約: ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
- 参考スコア(独自算出の注目度): 44.97953547553997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The intrinsic difficulty in adapting deep learning models to non-stationary
environments limits the applicability of neural networks to real-world tasks.
This issue is critical in practical supervised learning settings, such as the
ones in which a pre-trained model computes projections toward a latent space
where different task predictors are sequentially learned over time. As a matter
of fact, incrementally fine-tuning the whole model to better adapt to new tasks
usually results in catastrophic forgetting, with decreasing performance over
the past experiences and losing valuable knowledge from the pre-training stage.
In this paper, we propose a novel strategy to make the fine-tuning procedure
more effective, by avoiding to update the pre-trained part of the network and
learning not only the usual classification head, but also a set of
newly-introduced learnable parameters that are responsible for transforming the
input data. This process allows the network to effectively leverage the
pre-training knowledge and find a good trade-off between plasticity and
stability with modest computational efforts, thus especially suitable for
on-the-edge settings. Our experiments on four image classification problems in
a continual learning setting confirm the quality of the proposed approach when
compared to several fine-tuning procedures and to popular continual learning
methods.
- Abstract(参考訳): ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
この問題は、事前訓練されたモデルが、異なるタスク予測器が時間とともに順次学習される潜在空間への投影を計算するような、実践的な教師付き学習設定において重要である。
実のところ、新しいタスクに適応するためにモデルを段階的に微調整すると、たいていは破滅的な忘れがちになり、過去の経験よりもパフォーマンスが低下し、トレーニング前の段階から貴重な知識を失う。
本稿では,ネットワークの事前学習部分の更新を回避し,通常の分類ヘッドだけでなく,入力データの変換に責任を持つ新たな学習可能なパラメータのセットも学習することで,微調整手順をより効果的にするための新しい手法を提案する。
このプロセスにより、ネットワークは事前学習した知識を効果的に活用し、可塑性と安定性の間の良いトレードオフを見つけることができる。
連続学習環境における4つの画像分類問題に関する実験は,複数の微調整手順と一般的な連続学習手法と比較して,提案手法の品質を確認する。
関連論文リスト
- Normalization and effective learning rates in reinforcement learning [52.59508428613934]
正規化層は近年,深層強化学習と連続学習文学においてルネッサンスを経験している。
正規化は、ネットワークパラメータのノルムにおける成長と効果的な学習速度における崩壊の間の等価性という、微妙だが重要な副作用をもたらすことを示す。
そこで本研究では,正規化・プロジェクトと呼ぶ単純な再パラメータ化により,学習率を明示的にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:58:01Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - DLCFT: Deep Linear Continual Fine-Tuning for General Incremental
Learning [29.80680408934347]
事前学習した表現からモデルを連続的に微調整するインクリメンタルラーニングのための代替フレームワークを提案する。
本手法は, ニューラルネットワークの線形化手法を利用して, 単純かつ効果的な連続学習を行う。
本手法は,データ増分,タスク増分およびクラス増分学習問題において,一般的な連続学習設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-08-17T06:58:14Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - An Empirical Investigation of the Role of Pre-training in Lifelong
Learning [21.995593026269578]
複数のタスクを逐次学習する際の破滅的忘れの影響を,ジェネリック事前学習が暗黙的に軽減することを示す。
本研究では、この現象を損失景観を解析し、トレーニング済みの重みがより広いミニマへと導くことで忘れやすいように見えることを明らかにする。
論文 参考訳(メタデータ) (2021-12-16T19:00:55Z) - Continual Deep Learning by Functional Regularisation of Memorable Past [95.97578574330934]
知的システムにとって、新しいスキルを継続的に学習することは重要だが、標準的なディープラーニング手法は、過去の破滅的な忘れ物に悩まされている。
本稿では, 過去の記憶に残るいくつかの例を, 忘れることを避けるために活用する機能正規化手法を提案する。
提案手法は,標準ベンチマーク上での最先端性能を実現し,正規化とメモリベースの手法を自然に組み合わせた生涯学習の新たな方向性を開拓する。
論文 参考訳(メタデータ) (2020-04-29T10:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。