論文の概要: Efficient Continual Adaptation of Pretrained Robotic Policy with Online Meta-Learned Adapters
- arxiv url: http://arxiv.org/abs/2503.18684v1
- Date: Mon, 24 Mar 2025 13:55:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:27.334636
- Title: Efficient Continual Adaptation of Pretrained Robotic Policy with Online Meta-Learned Adapters
- Title(参考訳): オンラインメタ学習型適応器を用いた事前学習型ロボット政策の継続的適応
- Authors: Ruiqi Zhu, Endong Sun, Guanhe Huang, Oya Celiktutan,
- Abstract要約: 一般の自律型エージェントには継続的適応が不可欠である。
オンラインメタラーニングアダプタ(OMLA)は、以前に学習したタスクから現在の学習タスクへの知識伝達を容易にする。
- 参考スコア(独自算出の注目度): 0.24106250158920473
- License:
- Abstract: Continual adaptation is essential for general autonomous agents. For example, a household robot pretrained with a repertoire of skills must still adapt to unseen tasks specific to each household. Motivated by this, building upon parameter-efficient fine-tuning in language models, prior works have explored lightweight adapters to adapt pretrained policies, which can preserve learned features from the pretraining phase and demonstrate good adaptation performances. However, these approaches treat task learning separately, limiting knowledge transfer between tasks. In this paper, we propose Online Meta-Learned adapters (OMLA). Instead of applying adapters directly, OMLA can facilitate knowledge transfer from previously learned tasks to current learning tasks through a novel meta-learning objective. Extensive experiments in both simulated and real-world environments demonstrate that OMLA can lead to better adaptation performances compared to the baseline methods. The project link: https://ricky-zhu.github.io/OMLA/.
- Abstract(参考訳): 一般の自律型エージェントには継続的適応が不可欠である。
例えば、スキルのレパートリーで事前訓練された家庭用ロボットは、各家庭固有の目に見えないタスクに適応しなければならない。
言語モデルにおけるパラメータ効率のよい微調整を基礎として、事前訓練されたポリシーを適応するための軽量なアダプタを探索し、事前学習フェーズから学習した特徴を保存し、優れた適応性能を示す。
しかし、これらの手法は、タスク間の知識伝達を制限し、タスク学習を別々に扱う。
本稿では,オンラインメタラーニングアダプタ(OMLA)を提案する。
OMLAは、アダプタを直接適用するのではなく、新しいメタ学習目標を通じて、以前に学習したタスクから現在の学習タスクへの知識伝達を容易にする。
シミュレーションおよび実世界の環境における大規模な実験は、OMLAがベースライン法よりも優れた適応性能をもたらすことを示した。
プロジェクトリンク:https://ricky-zhu.github.io/OMLA/。
関連論文リスト
- Linked Adapters: Linking Past and Future to Present for Effective Continual Learning [3.7166121807265045]
継続的な学習により、システムは、以前のタスクから得た知識を維持しながら、新しいタスクを学習し、適応することができる。
ディープラーニングモデルは、新しいタスクを学習しながら、以前のタスクから学んだ知識を破滅的に忘れてしまう。
本稿では,他のタスク固有のアダプタに重み付けされた注意機構を通じて知識を伝達する手法を提案する。
論文 参考訳(メタデータ) (2024-12-14T05:25:17Z) - From Instance Training to Instruction Learning: Task Adapters Generation from Instructions [29.452006810725184]
本稿では,事例学習の欠点に対処するために,人間の学習をシミュレートすることに焦点を当てる。
タスク固有のモデルを自動的に構築するTAGI(Task Adapters from Instructions)を導入する。
超自然的インストラクションとP3データセットを用いたTAGIの評価を行った。
論文 参考訳(メタデータ) (2024-06-18T08:14:28Z) - Class Incremental Learning with Pre-trained Vision-Language Models [59.15538370859431]
本稿では、事前学習された視覚言語モデル(例えば、CLIP)を利用して、さらなる適応を可能にするアプローチを提案する。
いくつかの従来のベンチマークの実験は、常に現在の最先端よりも顕著な改善のマージンを示している。
論文 参考訳(メタデータ) (2023-10-31T10:45:03Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - KALA: Knowledge-Augmented Language Model Adaptation [65.92457495576141]
プレトレーニング言語モデル(PLM)のための新しいドメイン適応フレームワークを提案する。
知識拡張言語モデル適応(英: Knowledge-Augmented Language Model Adaptation, KALA)は、PLMの中間的隠れ表現をドメイン知識で修飾する。
計算効率は高いが,我々のKALAは適応型事前学習よりも優れていた。
論文 参考訳(メタデータ) (2022-04-22T08:11:59Z) - Fully Online Meta-Learning Without Task Boundaries [80.09124768759564]
この性質のオンライン問題にメタラーニングを適用する方法について検討する。
タスク境界に関する基礎的な真理知識を必要としない完全オンラインメタラーニング(FOML)アルゴリズムを提案する。
実験の結果,FOMLは最先端のオンライン学習手法よりも高速に新しいタスクを学習できることがわかった。
論文 参考訳(メタデータ) (2022-02-01T07:51:24Z) - AdapterHub Playground: Simple and Flexible Few-Shot Learning with
Adapters [34.86139827292556]
事前訓練された言語モデルのオープンアクセスの普及は、最先端自然言語処理(NLP)研究の民主化につながった。
これにより、NLP以外の人たちでも、そのようなモデルを使用して、特定のユースケースに適応することが可能になります。
本研究では,一行のコードを書かずに事前学習したモデルを活用できるツールを提供することで,このギャップを克服することを目指している。
論文 参考訳(メタデータ) (2021-08-18T11:56:01Z) - Linear Representation Meta-Reinforcement Learning for Instant Adaptation [20.711877803169134]
本稿では,Fast Linearized Adaptive Policy(FLAP)を紹介する。
FLAPは新しいメタ強化学習(meta-RL)手法であり、アウト・オブ・ディストリビューションタスクにうまく対応できる。
論文 参考訳(メタデータ) (2021-01-12T20:56:34Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z) - Online Fast Adaptation and Knowledge Accumulation: a New Approach to
Continual Learning [74.07455280246212]
継続的な学習は、新しいタスクに適応しながら、以前のタスクを忘れずにタスクの流れから学ぶエージェントを研究する。
この新たなシナリオでは、現在の連続学習、メタ学習、メタ連続学習、および連続メタ学習技術が失敗することを示します。
本稿では,このシナリオの強力なベースラインとして,人気のあるMAMLアルゴリズムのオンライン拡張であるContinual-MAMLを提案する。
論文 参考訳(メタデータ) (2020-03-12T15:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。