論文の概要: Uni-Skill: Building Self-Evolving Skill Repository for Generalizable Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2603.02623v1
- Date: Tue, 03 Mar 2026 05:49:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.654611
- Title: Uni-Skill: Building Self-Evolving Skill Repository for Generalizable Robotic Manipulation
- Title(参考訳): ユニスキル:汎用ロボットマニピュレーションのための自己進化型スキルリポジトリの構築
- Authors: Senwei Xie, Yuntian Zhang, Ruiping Wang, Xilin Chen,
- Abstract要約: Uni-Skillはスキル中心のフレームワークで、スキル対応のプランニングをサポートする。
既存のスキルが不十分な場合、新しいスキル実装に対するUni-Skillリクエスト。
Skillは、大規模な非構造化ロボットビデオから派生したVerbNetにインスパイアされたリポジトリだ。
- 参考スコア(独自算出の注目度): 32.86306309089796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While skill-centric approaches leverage foundation models to enhance generalization in compositional tasks, they often rely on fixed skill libraries, limiting adaptability to new tasks without manual intervention. To address this, we propose Uni-Skill, a Unified Skill-centric framework that supports skill-aware planning and facilitates automatic skill evolution. Unlike prior methods that restrict planning to predefined skills, Uni-Skill requests for new skill implementations when existing ones are insufficient, ensuring adaptable planning with self-augmented skill library. To support automatic implementation of diverse skills requested by the planning module, we construct SkillFolder, a VerbNet-inspired repository derived from large-scale unstructured robotic videos. SkillFolder introduces a hierarchical skill taxonomy that captures diverse skill descriptions at multiple levels of abstraction. By populating this taxonomy with large-scale, automatically annotated demonstrations, Uni-Skill shifts the paradigm of skill acquisition from inefficient manual annotation to efficient offline structural retrieval. Retrieved examples provide semantic supervision over behavior patterns and fine-grained references for spatial trajectories, enabling few-shot skill inference without deployment-time demonstrations. Comprehensive experiments in both simulation and real-world settings verify the state-of-the-art performance of Uni-Skill over existing VLM-based skill-centric approaches, highlighting its advanced reasoning capabilities and strong zero-shot generalization across a wide range of novel tasks.
- Abstract(参考訳): スキル中心のアプローチは基礎モデルを活用して構成タスクの一般化を強化するが、それらはしばしば固定されたスキルライブラリに依存し、手動の介入なしに新しいタスクへの適応性を制限する。
この課題に対処するため,Uni-Skillを提案する。Uni-Skillは,スキルを意識したプランニングをサポートし,スキルの自動進化を支援する統一スキル中心のフレームワークである。
事前定義されたスキルにプランニングを限定する従来の方法とは異なり、既存のスキル実装が不十分な場合、Uni-Skillは新たなスキル実装を要求する。
計画モジュールが要求する多様なスキルの自動実装を支援するため,大規模な非構造化ロボットビデオから派生したVerbNetにインスパイアされたリポジトリであるSkillFolderを構築した。
SkillFolderは階層的なスキル分類を導入し、さまざまなスキル記述を複数の抽象化レベルでキャプチャする。
この分類を大規模かつ自動的に注釈付けされたデモで一般化することにより、Uni-Skillは、スキル獲得のパラダイムを非効率な手動アノテーションから効率的なオフライン構造検索へとシフトさせる。
回収された例は、行動パターンのセマンティックな監視と、空間的軌跡のきめ細かい参照を提供し、デプロイ時の実演なしに、ほとんどショットのスキル推論を可能にする。
シミュレーションと実世界の設定の両方における包括的な実験は、既存のVLMベースのスキル中心のアプローチよりも、Uni-Skillの最先端性能を検証し、その高度な推論能力と幅広い新しいタスクにおけるゼロショットの強力な一般化を強調している。
関連論文リスト
- SkillCraft: Can LLM Agents Learn to Use Tools Skillfully? [67.69996753743129]
SkillCraftは、高レベルのツールコンポジションの生成と再利用を可能にする、明示的にストレステストエージェントのベンチマークである。
SkillCraftは、定量次元と構造次元の両方に沿ってスケールする困難を伴う、現実的で、構成性の高いツール使用シナリオを特徴としている。
本稿では,エージェントがアトミックツールを実行可能なスキルに自動生成し,タスク内およびタスク間のキャッシュと再利用を可能にする軽量な評価プロトコルを提案する。
論文 参考訳(メタデータ) (2026-02-28T15:44:31Z) - Agent Skills for Large Language Models: Architecture, Acquisition, Security, and the Path Forward [5.124116559484265]
モノリシックな言語モデルからモジュール化された、スキルを持ったエージェントへの移行は、大規模言語モデル(LLM)の実際のデプロイ方法に決定的な変化をもたらす。
すべての手続き的知識をモデルウェイト内にエンコードするのではなく、エージェントスキルは、再トレーニングせずに動的機能拡張を可能にする。
この調査は、エージェントスキルのランドスケープを包括的に扱うもので、ここ数ヶ月で急速に進化してきた。
論文 参考訳(メタデータ) (2026-02-12T21:33:25Z) - Goal-Oriented Skill Abstraction for Offline Multi-Task Reinforcement Learning [25.18006424626525]
GO-Skillは、再利用可能なスキルを抽出し、活用し、知識伝達とタスクパフォーマンスを向上させるために設計された新しいアプローチである。
本稿では,目標志向のスキル抽出プロセスを通じて再利用可能なスキルを明らかにし,ベクトル量子化を活用して個別のスキルライブラリを構築する。
我々はこれらのスキルを階層的な政策学習を用いて統合し、個別のスキルを動的に編成して特定のタスクを遂行するハイレベルなポリシーの構築を可能にする。
論文 参考訳(メタデータ) (2025-07-09T07:54:49Z) - SPECI: Skill Prompts based Hierarchical Continual Imitation Learning for Robot Manipulation [3.1997825444285457]
動的非構造環境における現実世界のロボット操作は、進化するオブジェクト、シーン、タスクに対して生涯の適応性を必要とする。
伝統的な模倣学習は、生涯適応に不適な静的な訓練パラダイムに依存している。
我々は,ロボット操作のための新しいエンドツーエンドの階層型CILポリシーアーキテクチャである,スキル・プロンプトに基づく階層型連続模倣学習(SPECI)を提案する。
論文 参考訳(メタデータ) (2025-04-22T03:30:38Z) - MaestroMotif: Skill Design from Artificial Intelligence Feedback [67.17724089381056]
MaestroMotifはAI支援スキルデザインの手法であり、高性能で適応可能なエージェントを生成する。
本稿では,AIを活用したスキルデザイン手法であるMaestroMotifについて述べる。
論文 参考訳(メタデータ) (2024-12-11T16:59:31Z) - Agentic Skill Discovery [19.5703917813767]
言語条件付きロボット技術により、Large Language Models (LLMs) の高レベル推論を低レベルロボット制御に適用することができる。
残る課題は、さまざまな基本的なスキルを取得することです。
LLMによって完全に駆動されるスキル発見のための新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-23T19:44:03Z) - SkillDiffuser: Interpretable Hierarchical Planning via Skill Abstractions in Diffusion-Based Task Execution [75.2573501625811]
拡散モデルは、ロボット軌道計画の強力な可能性を示している。
高レベルの命令からコヒーレントな軌道を生成することは依然として困難である。
エンド・ツー・エンドの階層的計画フレームワークであるSkillDiffuserを提案する。
論文 参考訳(メタデータ) (2023-12-18T18:16:52Z) - ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - Example-Driven Model-Based Reinforcement Learning for Solving
Long-Horizon Visuomotor Tasks [85.56153200251713]
長軸ビズモータタスクの完了に適したプリミティブスキルを学習するためのモデルベースRL手法EMBRを紹介する。
フランカ・エミカのロボットアームでは、EMBRによってロボットは85%の成功率で3つの長い水平視運動タスクを完了できることがわかった。
論文 参考訳(メタデータ) (2021-09-21T16:48:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。