論文の概要: Pretrained Vision-Language-Action Models are Surprisingly Resistant to Forgetting in Continual Learning
- arxiv url: http://arxiv.org/abs/2603.03818v1
- Date: Wed, 04 Mar 2026 08:03:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.227574
- Title: Pretrained Vision-Language-Action Models are Surprisingly Resistant to Forgetting in Continual Learning
- Title(参考訳): 事前学習による視覚・言語・行動モデルの構築
- Authors: Huihan Liu, Changyeon Kim, Bo Liu, Minghuan Liu, Yuke Zhu,
- Abstract要約: 我々は,スクラッチからトレーニングした大規模事前学習型視覚言語行動(VLA)モデルの挙動について検討した。
トレーニング済みのVLAは、スクラッチからトレーニングした小さなポリシーモデルと比較して、忘れることに対して極めて抵抗的であることが分かりました。
本分析により,下流の連続学習性能において,事前学習が重要な役割を担っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 30.941068379610794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning is a long-standing challenge in robot policy learning, where a policy must acquire new skills over time without catastrophically forgetting previously learned ones. While prior work has extensively studied continual learning in relatively small behavior cloning (BC) policy models trained from scratch, its behavior in modern large-scale pretrained Vision-Language-Action (VLA) models remains underexplored. In this work, we found that pretrained VLAs are remarkably resistant to forgetting compared with smaller policy models trained from scratch. Simple Experience Replay (ER) works surprisingly well on VLAs, sometimes achieving zero forgetting even with a small replay data size. Our analysis reveals that pretraining plays a critical role in downstream continual learning performance: large pretrained models mitigate forgetting with a small replay buffer size while maintaining strong forward learning capabilities. Furthermore, we found that VLAs can retain relevant knowledge from prior tasks despite performance degradation during learning new tasks. This knowledge retention enables rapid recovery of seemingly forgotten skills through finetuning. Together, these insights imply that large-scale pretraining fundamentally changes the dynamics of continual learning, enabling models to continually acquire new skills over time with simple replay. Code and more information can be found at https://ut-austin-rpl.github.io/continual-vla
- Abstract(参考訳): 継続的な学習は、ロボットポリシー学習における長年の課題であり、ポリシーは、これまで学んだことを忘れることなく、時間とともに新しいスキルを身につけなければならない。
以前の研究は、スクラッチから訓練された比較的小さな行動クローニング(BC)ポリシーモデルにおける連続的な学習を広範囲に研究してきたが、現代の大規模事前訓練されたビジョン・ランゲージ・アクション(VLA)モデルにおけるその行動は、まだ解明されていない。
本研究では,事前学習したVLAが,スクラッチからトレーニングした小さなポリシーモデルと比較して,忘れることに対して極めて耐性があることを見出した。
Simple Experience Replay (ER)は、VLAで驚くほどうまく機能し、小さなリプレイデータサイズであっても、忘れることがゼロになることもある。
大規模事前学習モデルでは,強い前方学習能力を維持しつつ,小さなリプレイバッファサイズで忘れを緩和する。
さらに、VLAは、新しいタスクを学習する際の性能劣化にもかかわらず、以前のタスクから関連する知識を保持することができることがわかった。
この知識保持は、微調整により、忘れられたように見えるスキルの迅速な回復を可能にする。
これらの知見は、大規模事前学習が継続学習のダイナミクスを根本的に変え、モデルがシンプルなリプレイで時間とともに新しいスキルを継続的に獲得できることを示唆している。
コードと詳細はhttps://ut-austin-rpl.github.io/continual-vlaで確認できる。
関連論文リスト
- STAR: Stability-Inducing Weight Perturbation for Continual Learning [4.623295991242981]
継続的学習における重要な課題は、モデルが新しいタスクを学ぶために更新されると、破滅的な忘れがちになることです。
継続学習中の忘れを軽減するための一般的なアプローチは、事前に確認されたサンプルの小さなバッファを保持し、トレーニング中にそれらを再生することである。
モデル予測のKL偏差を低減させる,最悪のパラメータ摂動を利用した新しい損失関数STARを提案する。
論文 参考訳(メタデータ) (2025-03-03T14:32:03Z) - Merge to Learn: Efficiently Adding Skills to Language Models with Model Merging [102.16497861225358]
汎用言語モデルを新しいスキルに適用することは、現在、高価なプロセスである。
既存のモデルに新たなスキルを付加する効果について,新たなスキルを単独で訓練し,その後一般モデルとマージすることによって検討した。
論文 参考訳(メタデータ) (2024-10-16T18:23:50Z) - Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Replay-enhanced Continual Reinforcement Learning [37.34722105058351]
本稿では,新しいタスクにおける既存のリプレイ方式の可塑性を大幅に向上させるリプレイ拡張手法であるRECALLを紹介する。
Continual Worldベンチマークの実験では、RECALLは純粋に完全なメモリリプレイよりもはるかに優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-11-20T06:21:52Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Detachedly Learn a Classifier for Class-Incremental Learning [11.865788374587734]
本稿では,バニラ体験リプレイ(ER)の失敗は,従来のタスクの不要な再学習と,現在のタスクと以前のタスクとを区別する能力の欠如が原因であることを示す。
本稿では,新しいリプレイ戦略・タスク認識体験リプレイを提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-23T01:35:44Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Lifelong Learning of Few-shot Learners across NLP Tasks [45.273018249235705]
私たちは、さまざまなNLPタスクのシーケンスを通じて、生涯学習の難しさを研究します。
アダプタウェイトの生成をいくつかの例から学ぶ,継続的なメタラーニングアプローチを提案する。
私たちのアプローチは、トレーニングタスクよりもモデルのパフォーマンスを維持し、将来のタスクが学習されるとポジティブな知識伝達につながります。
論文 参考訳(メタデータ) (2021-04-18T10:41:56Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。