論文の概要: Kaizen: Practical Self-supervised Continual Learning with Continual
Fine-tuning
- arxiv url: http://arxiv.org/abs/2303.17235v2
- Date: Wed, 7 Feb 2024 15:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 20:46:35.582517
- Title: Kaizen: Practical Self-supervised Continual Learning with Continual
Fine-tuning
- Title(参考訳): カイゼン:継続的な微調整を伴う実践的自己教師付き連続学習
- Authors: Chi Ian Tang, Lorena Qendro, Dimitris Spathis, Fahim Kawsar, Cecilia
Mascolo, Akhil Mathur
- Abstract要約: モデルをスクラッチからトレーニングして、新たに生成されたデータに適応することは、時間がかかり非効率である。
破滅的な忘れを軽減できるトレーニングアーキテクチャを導入します。
Kaizenは、競争力のあるビジョンベンチマークにおいて、以前のSSLモデルを大きく上回っている。
- 参考スコア(独自算出の注目度): 21.36130180647864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) has shown remarkable performance in computer
vision tasks when trained offline. However, in a Continual Learning (CL)
scenario where new data is introduced progressively, models still suffer from
catastrophic forgetting. Retraining a model from scratch to adapt to newly
generated data is time-consuming and inefficient. Previous approaches suggested
re-purposing self-supervised objectives with knowledge distillation to mitigate
forgetting across tasks, assuming that labels from all tasks are available
during fine-tuning. In this paper, we generalize self-supervised continual
learning in a practical setting where available labels can be leveraged in any
step of the SSL process. With an increasing number of continual tasks, this
offers more flexibility in the pre-training and fine-tuning phases. With
Kaizen, we introduce a training architecture that is able to mitigate
catastrophic forgetting for both the feature extractor and classifier with a
carefully designed loss function. By using a set of comprehensive evaluation
metrics reflecting different aspects of continual learning, we demonstrated
that Kaizen significantly outperforms previous SSL models in competitive vision
benchmarks, with up to 16.5% accuracy improvement on split CIFAR-100. Kaizen is
able to balance the trade-off between knowledge retention and learning from new
data with an end-to-end model, paving the way for practical deployment of
continual learning systems.
- Abstract(参考訳): 自己教師付き学習(ssl)は、オフライントレーニング時のコンピュータビジョンタスクにおいて顕著なパフォーマンスを示している。
しかし、新しいデータが徐々に導入される連続学習(cl)シナリオでは、モデルがまだ壊滅的な忘れに苦しむ。
モデルをスクラッチからトレーニングして、新たに生成されたデータに適応することは、時間がかかり非効率である。
以前のアプローチでは、すべてのタスクからのラベルが微調整中に利用可能であることを前提として、知識蒸留による自己監督対象の再獲得を推奨していた。
本稿では,SSLプロセスの任意のステップで利用可能なラベルを活用可能な実践的な環境で,自己教師付き連続学習を一般化する。
継続タスクの増加に伴い、事前トレーニングと微調整のフェーズにおいて、柔軟性が向上する。
カイゼンでは, 特徴抽出器と分類器の双方に対する破滅的な忘れを, 慎重に設計した損失関数で緩和する訓練アーキテクチャを導入する。
連続学習の異なる側面を反映した総合的な評価指標を用いて、カイゼンは競合ビジョンベンチマークにおいて従来のSSLモデルよりも大幅に優れており、CIFAR-100の精度は最大16.5%向上していることを示した。
kaizenは、知識の保持と新しいデータからの学習のトレードオフとエンドツーエンドモデルとのバランスをとることができ、継続的学習システムの実践的展開への道を開くことができる。
関連論文リスト
- Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - DELTA: Decoupling Long-Tailed Online Continual Learning [7.507868991415516]
Long-Tailed Online Continual Learning (LTOCL)は、クラス不均衡なデータストリームのシーケンシャルな到着から新しいタスクを学ぶことを目的としている。
DELTAは,学習表現の強化を目的とした非結合型学習手法である。
我々は,DELTAが既存のOCL手法を超越して,インクリメンタル学習の能力を向上させることを実証した。
論文 参考訳(メタデータ) (2024-04-06T02:33:04Z) - Dynamic Sub-graph Distillation for Robust Semi-supervised Continual
Learning [52.046037471678005]
半教師付き連続学習(SSCL)に焦点をあて、そのモデルが未知のカテゴリを持つ部分ラベル付きデータから徐々に学習する。
半教師付き連続学習のための動的サブグラフ蒸留法(DSGD)を提案する。
論文 参考訳(メタデータ) (2023-12-27T04:40:12Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Continual Learning From Unlabeled Data Via Deep Clustering [7.704949298975352]
継続的学習は、新しいタスクが到着するたびにモデルをスクラッチから再トレーニングするのではなく、少ない計算とメモリリソースを使って、新しいタスクをインクリメンタルに学習することを目的としている。
クラスタ割り当てから得られた擬似ラベルをモデル更新に用いて,教師なしモードで継続的学習を実現する新たなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-14T23:46:17Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。