論文の概要: MOSAIC: A Skill-Centric Algorithmic Framework for Long-Horizon Manipulation Planning
- arxiv url: http://arxiv.org/abs/2504.16738v1
- Date: Wed, 23 Apr 2025 14:09:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 16:02:05.747184
- Title: MOSAIC: A Skill-Centric Algorithmic Framework for Long-Horizon Manipulation Planning
- Title(参考訳): MOSAIC: 長距離マニピュレーション計画のためのスキル中心型アルゴリズムフレームワーク
- Authors: Itamar Mishani, Yorai Shaoul, Maxim Likhachev,
- Abstract要約: ロボット工学とAIにおける重要な課題は、事前に定義された一連のスキルを使って、長い水平運動を計画することである。
我々はこれらの要素を統合化するためのスキル中心のフレームワークであるMOSAICを紹介します。
- 参考スコア(独自算出の注目度): 17.543746580669662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Planning long-horizon motions using a set of predefined skills is a key challenge in robotics and AI. Addressing this challenge requires methods that systematically explore skill combinations to uncover task-solving sequences, harness generic, easy-to-learn skills (e.g., pushing, grasping) to generalize across unseen tasks, and bypass reliance on symbolic world representations that demand extensive domain and task-specific knowledge. Despite significant progress, these elements remain largely disjoint in existing approaches, leaving a critical gap in achieving robust, scalable solutions for complex, long-horizon problems. In this work, we present MOSAIC, a skill-centric framework that unifies these elements by using the skills themselves to guide the planning process. MOSAIC uses two families of skills: Generators compute executable trajectories and world configurations, and Connectors link these independently generated skill trajectories by solving boundary value problems, enabling progress toward completing the overall task. By breaking away from the conventional paradigm of incrementally discovering skills from predefined start or goal states--a limitation that significantly restricts exploration--MOSAIC focuses planning efforts on regions where skills are inherently effective. We demonstrate the efficacy of MOSAIC in both simulated and real-world robotic manipulation tasks, showcasing its ability to solve complex long-horizon planning problems using a diverse set of skills incorporating generative diffusion models, motion planning algorithms, and manipulation-specific models. Visit https://skill-mosaic.github.io for demonstrations and examples.
- Abstract(参考訳): ロボット工学とAIにおける重要な課題は、事前に定義された一連のスキルを使って、長い水平運動を計画することである。
この課題に対処するには、タスク解決シーケンスを明らかにするためのスキルの組み合わせを体系的に探求する手法、不明なタスクをまたいで一般化するためのジェネリックで簡単に学習できるスキル(例えば、押す、つかむこと)を活用する方法、広範囲のドメインとタスク固有の知識を必要とする象徴的な世界表現への依存をバイパスする手法が必要である。
大幅な進歩にもかかわらず、これらの要素は既存のアプローチと大きく相容れないままであり、複雑で長期にわたる問題に対して堅牢でスケーラブルなソリューションを達成するための重要なギャップを残している。
そこで本研究では,これらの要素を統合化するためのスキル中心のフレームワークであるMOSAICを紹介する。
MOSAICは2種類のスキルを使用する: ジェネレータは実行可能な軌跡と世界構成を計算し、コネクタは境界値問題を解くことによってこれら独立して生成されたスキル軌跡をリンクし、全体的なタスクの完了に向けた前進を可能にする。
事前定義された開始や目標状態からスキルを段階的に発見する従来のパラダイムから脱却することで、探索を著しく制限する制限が生まれ、-MOSAICは、スキルが本質的に有効である地域を計画する努力に重点を置いている。
シミュレーションと実世界のロボット操作におけるMOSAICの有効性を実証し, 生成拡散モデル, 運動計画アルゴリズム, 操作固有モデルを組み合わせた多種多様な技術を用いて, 複雑な長期計画問題の解決能力を示す。
デモやサンプルはhttps://skill-mosaic.github.ioをご覧ください。
関連論文リスト
- SPECI: Skill Prompts based Hierarchical Continual Imitation Learning for Robot Manipulation [3.1997825444285457]
動的非構造環境における現実世界のロボット操作は、進化するオブジェクト、シーン、タスクに対して生涯の適応性を必要とする。
伝統的な模倣学習は、生涯適応に不適な静的な訓練パラダイムに依存している。
我々は,ロボット操作のための新しいエンドツーエンドの階層型CILポリシーアーキテクチャである,スキル・プロンプトに基づく階層型連続模倣学習(SPECI)を提案する。
論文 参考訳(メタデータ) (2025-04-22T03:30:38Z) - Geometrically-Aware One-Shot Skill Transfer of Category-Level Objects [18.978751760636563]
本研究では,ロボットが複雑な物体操作のスキルと制約を1人の人間の実演から伝達することのできる,新しいスキル伝達フレームワークを提案する。
提案手法は,オブジェクト中心のインタラクションに着目したデモンストレーションから幾何学的表現を導出することで,スキル獲得とタスク実行の課題に対処する。
本手法の有効性と適応性を広範囲な実験により検証し,追加の訓練を必要とせず,多様な実環境における技術移転とタスク実行を実証した。
論文 参考訳(メタデータ) (2025-03-19T16:10:17Z) - RObotic MAnipulation Network (ROMAN) $\unicode{x2013}$ Hybrid
Hierarchical Learning for Solving Complex Sequential Tasks [70.69063219750952]
ロボットマニピュレーションネットワーク(ROMAN)のハイブリッド階層型学習フレームワークを提案する。
ROMANは、行動クローニング、模倣学習、強化学習を統合することで、タスクの汎用性と堅牢な障害回復を実現する。
実験結果から,これらの専門的な操作専門家の組織化と活性化により,ROMANは高度な操作タスクの長いシーケンスを達成するための適切なシーケンシャルなアクティベーションを生成することがわかった。
論文 参考訳(メタデータ) (2023-06-30T20:35:22Z) - Efficient Learning of High Level Plans from Play [57.29562823883257]
本稿では,移動計画と深いRLを橋渡しするロボット学習のフレームワークであるELF-Pについて紹介する。
ELF-Pは、複数の現実的な操作タスクよりも、関連するベースラインよりもはるかに優れたサンプル効率を有することを示す。
論文 参考訳(メタデータ) (2023-03-16T20:09:47Z) - Learning Options via Compression [62.55893046218824]
そこで本研究では,スキル記述長に対するペナルティと,最大限の目標を組み合わさった新たな目的を提案する。
我々の目的は、最大化可能性のみから学んだスキルと比較して、下流のタスクを少ないサンプルで解くスキルを学ぶことである。
論文 参考訳(メタデータ) (2022-12-08T22:34:59Z) - LEAGUE: Guided Skill Learning and Abstraction for Long-Horizon
Manipulation [16.05029027561921]
タスク・アンド・モーション・プランニングのアプローチは、長期にわたるタスクの解決と一般化に長けている。
彼らは事前に定義されたスキルセットを仮定し、現実世界のアプリケーションを制限する。
本稿ではLEAGUEというタスク計画とスキル学習フレームワークを提案する。
学習スキルは、新しいタスク領域での学習を加速し、物理的なロボットプラットフォームに移行するために再利用できることを示す。
論文 参考訳(メタデータ) (2022-10-23T06:57:05Z) - Learning Temporally Extended Skills in Continuous Domains as Symbolic
Actions for Planning [2.642698101441705]
長期計画と継続的な制御能力の両方を必要とする問題は、既存の強化学習エージェントに重大な課題をもたらす。
本稿では,環境の計画状態の象徴的抽象化において,継続的制御のための時間的拡張スキルとフォワードモデルとをリンクする新しい階層型強化学習エージェントを提案する。
論文 参考訳(メタデータ) (2022-07-11T17:13:10Z) - Divide & Conquer Imitation Learning [75.31752559017978]
模倣学習は学習プロセスをブートストラップするための強力なアプローチである。
本稿では,専門的軌道の状態から複雑なロボットタスクを模倣する新しいアルゴリズムを提案する。
提案手法は,非ホロノミックナビゲーションタスクを模倣し,非常に高いサンプル効率で複雑なロボット操作タスクにスケールすることを示す。
論文 参考訳(メタデータ) (2022-04-15T09:56:50Z) - Example-Driven Model-Based Reinforcement Learning for Solving
Long-Horizon Visuomotor Tasks [85.56153200251713]
長軸ビズモータタスクの完了に適したプリミティブスキルを学習するためのモデルベースRL手法EMBRを紹介する。
フランカ・エミカのロボットアームでは、EMBRによってロボットは85%の成功率で3つの長い水平視運動タスクを完了できることがわかった。
論文 参考訳(メタデータ) (2021-09-21T16:48:07Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。