論文の概要: Lifelong Language-Conditioned Robotic Manipulation Learning
- arxiv url: http://arxiv.org/abs/2603.05160v1
- Date: Thu, 05 Mar 2026 13:30:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.245787
- Title: Lifelong Language-Conditioned Robotic Manipulation Learning
- Title(参考訳): 生涯言語によるロボットマニピュレーション学習
- Authors: Xudong Wang, Zebin Han, Zhiyu Liu, Gan Li, Jiahua Dong, Baichen Liu, Lianqing Liu, Zhi Han,
- Abstract要約: 従来の言語条件の操作エージェントは、新しい操作スキルに逐次適応することで、破滅的な古いスキルを忘れてしまう。
SkillsCrafterは、複数のスキルを継続的に学習するように設計された、新しいロボット操作フレームワークである。
- 参考スコア(独自算出の注目度): 19.640584848758625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional language-conditioned manipulation agent sequential adaptation to new manipulation skills leads to catastrophic forgetting of old skills, limiting dynamic scene practical deployment. In this paper, we propose SkillsCrafter, a novel robotic manipulation framework designed to continually learn multiple skills while reducing catastrophic forgetting of old skills. Specifically, we propose a Manipulation Skills Adaptation to retain the old skills knowledge while inheriting the shared knowledge between new and old skills to facilitate learning of new skills. Meanwhile, we perform the singular value decomposition on the diverse skill instructions to obtain common skill semantic subspace projection matrices, thereby recording the essential semantic space of skills. To achieve forget-less and generalization manipulation, we propose a Skills Specialization Aggregation to compute inter-skills similarity in skill semantic subspaces, achieving aggregation of the previously learned skill knowledge for any new or unknown skill. Extensive experiments demonstrate the effectiveness and superiority of our proposed SkillsCrafter.
- Abstract(参考訳): 従来の言語条件の操作エージェントは、新しい操作スキルへのシーケンシャルな適応によって、古いスキルの破滅的な忘れを招き、動的なシーンの実践的な展開を制限する。
本稿では,従来のスキルの破滅的な忘れを抑えつつ,複数のスキルを継続的に学習する新しいロボット操作フレームワークであるSkillsCrafterを提案する。
具体的には、新しいスキルの習得を促進するために、新しいスキルと古いスキルの共有知識を継承しながら、古いスキル知識を維持するための操作スキル適応を提案する。
一方,多様なスキル命令に対して特異値分解を行い,共通スキルセマンティックなサブスペース・プロジェクション行列を得る。
本稿では,スキルセマンティックなサブ空間におけるスキル間の類似性を計算し,新しいスキルや未知のスキルに対して,以前に学習したスキル知識の集約を実現するためのスキル特化集約を提案する。
大規模な実験は、提案したスキルクラフトの有効性と優位性を示している。
関連論文リスト
- Pretrained Bayesian Non-parametric Knowledge Prior in Robotic Long-Horizon Reinforcement Learning [10.598207472087578]
強化学習(Reinforcement Learning, RL)の手法は通常、新しいタスクをゼロから学習する。
この研究は、潜在的な原始的なスキルモーションを未知の特徴を持つ非パラメトリックな特性を持つものとしてモデル化する手法を導入する。
非パラメトリックモデル、特にDirichlet Process Mixturesは、出生とマージによって強化され、スキルの多様な性質を効果的に捉えるための事前トレーニングに使用される。
論文 参考訳(メタデータ) (2025-03-27T20:43:36Z) - MaestroMotif: Skill Design from Artificial Intelligence Feedback [67.17724089381056]
MaestroMotifはAI支援スキルデザインの手法であり、高性能で適応可能なエージェントを生成する。
本稿では,AIを活用したスキルデザイン手法であるMaestroMotifについて述べる。
論文 参考訳(メタデータ) (2024-12-11T16:59:31Z) - SkiLD: Unsupervised Skill Discovery Guided by Factor Interactions [48.003320766433966]
この研究は、ローカル依存(スキルド)からのスキル発見を紹介します。
Skildは、環境内の異なる相互作用を誘発するスキルの習得を明示的に促進する、新しいスキル学習の目標を開発する。
本研究では,現実的なシミュレートされた家庭用ロボットドメインを含む,長期にわたる不利な報酬課題を伴う複数の領域におけるスキルドの評価を行った。
論文 参考訳(メタデータ) (2024-10-24T04:01:59Z) - Disentangled Unsupervised Skill Discovery for Efficient Hierarchical Reinforcement Learning [39.991887534269445]
Disentangled Unsupervised Skill Discovery (DUSDi) は、下流の課題を解決するために効率的に再利用できる非角スキルの学習方法である。
DUSDiはスキルを切り離したコンポーネントに分解し、各スキルコンポーネントは状態空間の1つの要素にのみ影響する。
DUSDiは、障害のあるスキルをうまく学習し、下流タスクの解決に学習したスキルを適用するという点で、従来のスキル発見方法よりもはるかに優れています。
論文 参考訳(メタデータ) (2024-10-15T04:13:20Z) - Language Guided Skill Discovery [56.84356022198222]
言語ガイドスキル発見(LGSD)を導入し,スキル間の意味的多様性を最大化する。
LGSDはユーザープロンプトを入力として取り、セマンティックなスキルのセットを出力する。
本研究は,LGSDにより,単にプロンプトを変更するだけで,手足のロボットが平面上の異なるユーザ意図のエリアを訪問できることを実証する。
論文 参考訳(メタデータ) (2024-06-07T04:25:38Z) - C$\cdot$ASE: Learning Conditional Adversarial Skill Embeddings for
Physics-based Characters [49.83342243500835]
C$cdot$ASEは、物理系文字に対する条件付き適応スキル埋め込みを学習する効率的なフレームワークである。
C$cdot$ASEは、不均一なスキルモーションを、低レベル条件モデルのトレーニングのための均質なサンプルを含む別個のサブセットに分割する。
スキル条件の模倣学習は、訓練後のキャラクターのスキルを明確に制御する。
論文 参考訳(メタデータ) (2023-09-20T14:34:45Z) - Choreographer: Learning and Adapting Skills in Imagination [60.09911483010824]
我々は、その世界モデルを利用して想像力のスキルを学び、適応するモデルベースのエージェントであるChoreographerを紹介する。
提案手法は探索とスキル学習のプロセスを切り離し,モデルの潜在状態空間におけるスキルの発見を可能にする。
Choreographerはオフラインデータからスキルを学ぶことができ、探索ポリシーと同時にデータを集めることができる。
論文 参考訳(メタデータ) (2022-11-23T23:31:14Z) - One After Another: Learning Incremental Skills for a Changing World [19.051800747558794]
スキル発見のための新たなフレームワークを提案する。
進化環境と静的環境の両方において、インクリメンタルスキルは現在の最先端のスキル発見方法よりも著しく優れていることを実証した。
論文 参考訳(メタデータ) (2022-03-21T17:55:21Z) - A Simple Approach to Continual Learning by Transferring Skill Parameters [25.705923249267055]
我々は、忘れずにロボット操作スキルを継続的に取得する方法を示し、それらをスクラッチからトレーニングするために必要なサンプルをはるかに少ないものにする。
適切なカリキュラムが与えられたら、忘れずにロボット操作スキルを継続的に習得し、スクラッチからトレーニングするために必要なサンプルをはるかに少ないものにする方法を示す。
論文 参考訳(メタデータ) (2021-10-19T20:44:20Z) - Discovering Generalizable Skills via Automated Generation of Diverse
Tasks [82.16392072211337]
本稿では,多種多様なタスクの自動生成による一般化可能なスキルの発見手法を提案する。
教師なしスキル発見の先行研究とは対照的に,本手法では各スキルをトレーニング可能なタスクジェネレータが生成するユニークなタスクとペアリングする。
生成したタスクにおけるロボットの動作に定義されたタスク判別器を共同で訓練し、多様性目標の低いエビデンスを推定する。
学習スキルは階層的な強化学習アルゴリズムで構成され、目に見えない目標タスクを解決する。
論文 参考訳(メタデータ) (2021-06-26T03:41:51Z) - Relative Variational Intrinsic Control [11.328970848714919]
Relative Variational Intrinsic Control(RVIC)は、エージェントが環境との関係をどのように変えるかで区別できる学習スキルを奨励します。
本稿では,階層的強化学習において,既存の手法によるスキルよりもRVICのスキルが有用であることを示す。
論文 参考訳(メタデータ) (2020-12-14T18:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。