論文の概要: Reflecting on the State of Rehearsal-free Continual Learning with Pretrained Models
- arxiv url: http://arxiv.org/abs/2406.09384v1
- Date: Thu, 13 Jun 2024 17:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 16:15:58.946230
- Title: Reflecting on the State of Rehearsal-free Continual Learning with Pretrained Models
- Title(参考訳): 事前学習モデルによるリハーサルなし連続学習の現状の考察
- Authors: Lukas Thede, Karsten Roth, Olivier J. Hénaff, Matthias Bethge, Zeynep Akata,
- Abstract要約: 単純かつ軽量なPEFTベースラインによるP-RFCL手法の整合性を示す。
P-RFCL の手法が,単純で軽量な PEFT ベースラインでマッチング可能であることを示す。
- 参考スコア(独自算出の注目度): 63.11967672725459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advent and recent ubiquity of foundation models, continual learning (CL) has recently shifted from continual training from scratch to the continual adaptation of pretrained models, seeing particular success on rehearsal-free CL benchmarks (RFCL). To achieve this, most proposed methods adapt and restructure parameter-efficient finetuning techniques (PEFT) to suit the continual nature of the problem. Based most often on input-conditional query-mechanisms or regularizations on top of prompt- or adapter-based PEFT, these PEFT-style RFCL (P-RFCL) approaches report peak performances; often convincingly outperforming existing CL techniques. However, on the other end, critical studies have recently highlighted competitive results by training on just the first task or via simple non-parametric baselines. Consequently, questions arise about the relationship between methodological choices in P-RFCL and their reported high benchmark scores. In this work, we tackle these questions to better understand the true drivers behind strong P-RFCL performances, their placement w.r.t. recent first-task adaptation studies, and their relation to preceding CL standards such as EWC or SI. In particular, we show: (1) P-RFCL techniques relying on input-conditional query mechanisms work not because, but rather despite them by collapsing towards standard PEFT shortcut solutions. (2) Indeed, we show how most often, P-RFCL techniques can be matched by a simple and lightweight PEFT baseline. (3) Using this baseline, we identify the implicit bound on tunable parameters when deriving RFCL approaches from PEFT methods as a potential denominator behind P-RFCL efficacy. Finally, we (4) better disentangle continual versus first-task adaptation, and (5) motivate standard RFCL techniques s.a. EWC or SI in light of recent P-RFCL methods.
- Abstract(参考訳): 近年のファンデーションモデルの普及に伴い、継続学習(CL)はスクラッチから事前訓練モデルへの継続的適応へと移行し、リハーサルのないCLベンチマーク(RFCL)で特に成功した。
これを実現するため,提案手法はパラメータ効率向上技術 (PEFT) を適応・再構成し,問題の連続的な性質に適合させる。
最も多くは、インプット条件のクエリ機構や、プロンプトまたはアダプタベースのPEFT上の正規化に基づいており、これらのPEFTスタイルのRFCL(P-RFCL)アプローチはピーク性能を報告し、しばしば既存のCL技術よりも圧倒的に優れている。
しかしながら、批判的な研究は、最近、最初のタスクや単純な非パラメトリックベースラインによるトレーニングによる競争結果を強調している。
その結果,P-RFCLの方法論的選択と高いベンチマークスコアの関係について疑問が持ち上がった。
本研究では,P-RFCL性能の強い背景にある真のドライバの配置,最近の第1タスク適応研究,EWCやSIといった以前のCL標準との関係をよりよく理解するために,これらの課題に取り組む。
特に,(1)P-RFCL手法は入力条件のクエリ機構に依存しているためではなく,標準のPEFTショートカットソリューションに崩壊することによるものである。
2) P-RFCL技術は, 単純かつ軽量なPEFTベースラインでマッチング可能であることを示す。
(3) このベースラインを用いて,PEFT法からRFCLアプローチを導出した場合の有意な有意な有意な有意な有意な有意な有意な有意な有意な有意な有意な有意差をP-RFCLの有効性の裏にある分母として同定する。
最後に,P-RFCL法に照らして,従来のRFCL法,すなわちEWC法やSI法をモチベートする。
関連論文リスト
- Meta-Learning Adaptable Foundation Models [37.458141335750696]
本稿では,PEFTを組み込んだメタラーニングフレームワークを導入し,未知のタスクに容易に適応可能なモデルを学習する。
この設定では、適応可能なパラメータの集合を見つけるための標準再訓練の準最適性を示す。
次に、これらの理論的洞察をRoBERTaモデルの再訓練に適用し、ConvAI2データセット内の会話の継続を予測する。
論文 参考訳(メタデータ) (2024-10-29T17:24:18Z) - ICL-TSVD: Bridging Theory and Practice in Continual Learning with Pre-trained Models [103.45785408116146]
連続学習(CL)は、連続的に提示される複数のタスクを解決できるモデルを訓練することを目的としている。
最近のCLアプローチは、ダウンストリームタスクをうまく一般化する大規模な事前学習モデルを活用することで、強力なパフォーマンスを実現している。
しかし、これらの手法には理論的保証がなく、予期せぬ失敗をしがちである。
私たちは、経験的に強いアプローチを原則化されたフレームワークに統合することで、このギャップを埋めます。
論文 参考訳(メタデータ) (2024-10-01T12:58:37Z) - SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - HiDe-PET: Continual Learning via Hierarchical Decomposition of Parameter-Efficient Tuning [55.88910947643436]
予備学習モデル(PTM)とパラメータ効率チューニング(PET)を組み合わせた連続学習(CL)統合フレームワークを提案する。
タスク固有知識とタスク共有知識を取り入れることで目的を明示的に最適化する革新的な手法である階層分解PET(HiDe-PET)を提案する。
提案手法は,近年の強いベースラインの幅広いスペクトルに対して,極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-07T01:50:25Z) - Choice of PEFT Technique in Continual Learning: Prompt Tuning is Not All You Need [18.112632827740878]
PEFT法としてプロンプトチューニングを選択することで,CLシステム全体の性能が損なわれることがわかった。
我々は,Pmpt と S-Prompt の学習という,最先端の2つの連続学習手法において,LoRA による即時チューニングを置き換える。
論文 参考訳(メタデータ) (2024-06-05T12:53:37Z) - Iterative Preference Learning from Human Feedback: Bridging Theory and Practice for RLHF under KL-Constraint [56.74058752955209]
本稿では,RLHFによる強化学習を用いた生成モデルのアライメント過程について検討する。
まず、オフラインPPOやオフラインDPOのような既存の一般的な手法の主な課題を、環境の戦略的探索に欠如していると認識する。
有限サンプル理論保証を用いた効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-18T18:58:42Z) - Test-Time Training for Semantic Segmentation with Output Contrastive
Loss [12.535720010867538]
ディープラーニングベースのセグメンテーションモデルは、公開ベンチマークで印象的なパフォーマンスを達成したが、目に見えない環境にうまく一般化することは、依然として大きな課題である。
本稿では、適応過程を安定させるために、頑健で一般化された表現を学習する能力で知られるコントラストロス(OCL)を紹介する。
本手法は,テスト領域データに対するドメイン適応法を用いて事前学習したモデルに適用した場合においても優れ,そのレジリエンスと適応性を示す。
論文 参考訳(メタデータ) (2023-11-14T03:13:47Z) - Can Continual Learning Improve Long-Tailed Recognition? Toward a Unified
Framework [16.457778420360537]
長大認識法は,より大きい頭部セットと小さいテールセットの両方からなるデータセットを正確に学習することを目的としている。
本研究では,学習者の重みを効果的に更新し,頭部を忘れずにタイルを学習できることを示す。
また,自然に不均衡な256データセット上でCLを探索することにより,実世界のデータに対するCL手法の適用性を評価する。
論文 参考訳(メタデータ) (2023-06-23T03:05:33Z) - Strong Baselines for Parameter Efficient Few-Shot Fine-tuning [50.83426196335385]
FSC (Few-shot Classification) は、事前訓練(メタトレーニング)フェーズの後にクラス毎にいくつかの例を与えられた新しいクラスを学習する。
近年の研究では、新しいテストクラスで事前訓練された視覚変換器(ViT)を微調整することが、FSCにとって強力なアプローチであることが示されている。
しかし、微調整のViTは、時間、計算、ストレージに費用がかかる。
これにより、Transformerのパラメータのごく一部だけを微調整するPEFT法が考案された。
論文 参考訳(メタデータ) (2023-04-04T16:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。