論文の概要: Revisiting Class-Incremental Learning with Pre-Trained Models:
Generalizability and Adaptivity are All You Need
- arxiv url: http://arxiv.org/abs/2303.07338v1
- Date: Mon, 13 Mar 2023 17:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 13:28:50.497274
- Title: Revisiting Class-Incremental Learning with Pre-Trained Models:
Generalizability and Adaptivity are All You Need
- Title(参考訳): 事前学習モデルによるクラスインクリメンタルラーニングの再考: 一般化可能性と適応性がすべて必要である
- Authors: Da-Wei Zhou, Han-Jia Ye, De-Chuan Zhan, Ziwei Liu
- Abstract要約: クラスインクリメンタルラーニング(Class-incremental Learning, CIL)は、古いクラスを忘れずに新しいクラスに適応することを目的としている。
近年の事前訓練は大きな進歩を遂げており、CILには膨大な事前訓練モデル(PTM)が利用できるようになった。
CILの中核となる要素は、モデル更新の適応性と知識伝達の一般化性である。
- 参考スコア(独自算出の注目度): 76.10635571879762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental learning (CIL) aims to adapt to emerging new classes
without forgetting old ones. Traditional CIL models are trained from scratch to
continually acquire knowledge as data evolves. Recently, pre-training has
achieved substantial progress, making vast pre-trained models (PTMs) accessible
for CIL. Contrary to traditional methods, PTMs possess generalizable
embeddings, which can be easily transferred. In this work, we revisit CIL with
PTMs and argue that the core factors in CIL are adaptivity for model updating
and generalizability for knowledge transferring. 1) We first reveal that frozen
PTM can already provide generalizable embeddings for CIL. Surprisingly, a
simple baseline (SimpleCIL) which continually sets the classifiers of PTM to
prototype features can beat state-of-the-art even without training on the
downstream task. 2) Due to the distribution gap between pre-trained and
downstream datasets, PTM can be further cultivated with adaptivity via model
adapting. We propose ADapt And Merge (ADAM), which aggregates the embeddings of
PTM and adapted models for classifier construction. ADAM is a general framework
that can be orthogonally combined with any parameter-efficient tuning method,
which holds the advantages of PTM's generalizability and adapted model's
adaptivity. 3) Additionally, we find previous benchmarks are unsuitable in the
era of PTM due to data overlapping and propose four new benchmarks for
assessment, namely ImageNet-A, ObjectNet, OmniBenchmark, and VTAB. Extensive
experiments validate the effectiveness of ADAM with a unified and concise
framework.
- Abstract(参考訳): class-incremental learning (cil) は、古いクラスを忘れずに新しいクラスに適応することを目的としている。
従来のcilモデルはスクラッチからトレーニングされ、データが進化するにつれて知識を継続的に獲得します。
近年、事前訓練は大幅に進歩し、巨大な事前訓練モデル(ptm)がcilで利用可能になった。
従来の方法とは対照的に、PTMは一般化可能な埋め込みを持ち、容易に移動できる。
本研究では,CIL を PTM で再検討し,CIL の中核となる要素はモデル更新と知識伝達の一般化性であると主張している。
1)凍結型PTMはCILの汎用的な埋め込みをすでに実現可能であることを最初に明らかにした。
驚くべきことに、PTMの分類器をプロトタイプ機能に継続的に設定する単純なベースライン(SimpleCIL)は、下流タスクのトレーニングをしなくても最先端のタスクに勝てる。
2) 事前学習したデータセットと下流データセットの分布ギャップのため, PTMはモデル適応により適応性を持たせることができる。
本稿では,PTMと適応モデルの組込みを集約したAdapt And Merge (ADAM)を提案する。
ADAMは、任意のパラメータ効率のチューニング手法と直交的に組み合わせることができる一般的なフレームワークであり、PTMの一般化可能性と適応モデルの適応性の利点を持っている。
3) 従来のベンチマークはデータの重複によるPTMの時代には不適切であり,ImageNet-A, ObjectNet, OmniBenchmark, VTABの4つの新しいベンチマークを提案する。
大規模な実験は、統一的かつ簡潔なフレームワークによるADAMの有効性を検証する。
関連論文リスト
- Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Rethinking Class-incremental Learning in the Era of Large Pre-trained Models via Test-Time Adaptation [20.62749699589017]
クラス増分学習(クラス増分学習、class-incremental learning、CIL)は、クラスを新しいタスクから分類する逐次学習を伴う課題である。
本稿では,最初のタスクでアダプタを用いてPTMを微調整するTTACIL(Test-Time Adaptation for Class-Incremental Learning)を提案する。
私たちのTTACILは、PTMの豊富な機能によって各タスクの恩恵を受けながら、一切忘れることはありません。
論文 参考訳(メタデータ) (2023-10-17T13:06:39Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - Ranking and Tuning Pre-trained Models: A New Paradigm of Exploiting
Model Hubs [136.4492678691406]
本稿では,事前学習したモデルのランク付けとチューニングにより,モデルハブを利用する新しいパラダイムを提案する。
最高のランク付けされたPTMは、モデルのアーキテクチャを好まない場合は、微調整とデプロイが可能です。
チューニング部は、専用メソッドを超越した、複数 PTM チューニングのための新しい手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T12:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。