論文の概要: Meta-Controller: Few-Shot Imitation of Unseen Embodiments and Tasks in Continuous Control
- arxiv url: http://arxiv.org/abs/2412.12147v1
- Date: Tue, 10 Dec 2024 19:10:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-22 07:36:51.819469
- Title: Meta-Controller: Few-Shot Imitation of Unseen Embodiments and Tasks in Continuous Control
- Title(参考訳): メタコントローラ: 連続制御における未知の身体とタスクのFew-Shot模倣
- Authors: Seongwoong Cho, Donggyun Kim, Jinwoo Lee, Seunghoon Hong,
- Abstract要約: ロボットの具体化やタスクの一般化は、適応型ロボットシステムにとって不可欠である。
我々は、見えない実施物やタスクを同時に一般化する、数発の行動クローニングフレームワークを導入する。
マッチングベースのポリシネットワークは、いくつかのデモからアクションを予測し、過度に適合する堅牢なアダプティブポリシを生成する。
- 参考スコア(独自算出の注目度): 19.259973997622346
- License:
- Abstract: Generalizing across robot embodiments and tasks is crucial for adaptive robotic systems. Modular policy learning approaches adapt to new embodiments but are limited to specific tasks, while few-shot imitation learning (IL) approaches often focus on a single embodiment. In this paper, we introduce a few-shot behavior cloning framework to simultaneously generalize to unseen embodiments and tasks using a few (\emph{e.g.,} five) reward-free demonstrations. Our framework leverages a joint-level input-output representation to unify the state and action spaces of heterogeneous embodiments and employs a novel structure-motion state encoder that is parameterized to capture both shared knowledge across all embodiments and embodiment-specific knowledge. A matching-based policy network then predicts actions from a few demonstrations, producing an adaptive policy that is robust to over-fitting. Evaluated in the DeepMind Control suite, our framework termed \modelname{} demonstrates superior few-shot generalization to unseen embodiments and tasks over modular policy learning and few-shot IL approaches. Codes are available at \href{https://github.com/SeongwoongCho/meta-controller}{https://github.com/SeongwoongCho/meta-controller}.
- Abstract(参考訳): ロボットの具体化やタスクの一般化は、適応型ロボットシステムにとって不可欠である。
モジュール型ポリシー学習アプローチは、新しい実施形態に適応するが、特定のタスクに限定される。
本稿では,無報酬な実演を数回 (\emph{e g ,} 5) 行ない,見知らぬ実施形態と課題を同時に一般化する,数発の行動クローニングフレームワークを提案する。
本フレームワークでは,異種エンボディメントの状態と動作空間を統一するために,結合レベルの入出力表現を活用し,すべてのエンボディメントとエンボディメント固有の知識の共用知識をパラメータ化した新規な構造運動状態エンコーダを用いる。
マッチングベースのポリシネットワークは、いくつかのデモからアクションを予測し、過度に適合する堅牢なアダプティブポリシを生成する。
DeepMind Controlスイートで評価されたこのフレームワークは,モジュラポリシ学習や少ショットILアプローチよりも,目に見えない実施やタスクに対して,より優れた数ショットの一般化を示すものだ。
コードは \href{https://github.com/SeongwoongCho/meta-controller}{https://github.com/SeongwoongCho/meta-controller} で公開されている。
関連論文リスト
- Model Evolution Framework with Genetic Algorithm for Multi-Task Reinforcement Learning [85.91908329457081]
マルチタスク強化学習は、様々なシナリオにまたがって一般化可能なエージェントを開発することを目的として、様々なタスクを完遂するために単一のポリシーを採用する。
既存のアプローチでは、ルーティングネットワークを使用して各タスクの特定のルートを生成し、モジュールのセットをさまざまなモデルに再構築し、複数のタスクを同時に完了させるのが一般的である。
本稿では,遺伝的アルゴリズム(MEGA)を用いたモデル進化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-19T09:22:34Z) - Towards Modality Generalization: A Benchmark and Prospective Analysis [56.84045461854789]
本稿では,モダリティ・ジェネリゼーション(MG)について述べる。
マルチモーダルアルゴリズムを特徴とする包括的ベンチマークを提案し,一般化に着目した既存手法を適用した。
私たちの研究は、堅牢で適応可能なマルチモーダルモデルを進化させる基盤を提供し、現実的なシナリオで目に見えないモダリティを扱えるようにします。
論文 参考訳(メタデータ) (2024-12-24T08:38:35Z) - Make-An-Agent: A Generalizable Policy Network Generator with Behavior-Prompted Diffusion [41.52811286996212]
Make-An-Agentは、行動から政治への生成のための新しいポリシーパラメータジェネレータである。
所望の行動の1つの実演をプロンプトとして、エージェントに対して制御ポリシーを生成する方法を示す。
また,Make-An-Agentによって生成されたポリシーを,ロコモーションタスク上で現実世界のロボットに展開する。
論文 参考訳(メタデータ) (2024-07-15T17:59:57Z) - Dreamitate: Real-World Visuomotor Policy Learning via Video Generation [49.03287909942888]
本研究では,与えられたタスクの人間による実演の映像拡散モデルを微調整するビジュモータポリシー学習フレームワークを提案する。
我々は,新しいシーンの画像に条件付きタスクの実行例を生成し,この合成された実行を直接使用してロボットを制御する。
論文 参考訳(メタデータ) (2024-06-24T17:59:45Z) - Imitator Learning: Achieve Out-of-the-Box Imitation Ability in Variable
Environments [45.213059639254475]
我々は、模倣学習(ItorL)と呼ばれる新しいトピックを提案する。
これは、非常に限られた専門家のデモンストレーションに基づいて模倣ポリシーを再構築できる模倣モジュールを導出することを目的としている。
自律的な模倣ポリシー構築のために、我々は模倣ポリシーのためのデモベースアテンションアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-10-09T13:35:28Z) - Comparing the Efficacy of Fine-Tuning and Meta-Learning for Few-Shot
Policy Imitation [45.312333134810665]
数発の模倣に取り組む最先端の手法はメタラーニングに依存している。
近年の研究では、ファインチューナーは画像分類タスクにおいてメタラーナーよりも優れていることが示されている。
人気の高いOpenAI-Gym MuJoCo環境の154種類からなるiMuJoCoと呼ばれるオープンソースデータセットをリリースする。
論文 参考訳(メタデータ) (2023-06-23T15:29:15Z) - Composite Motion Learning with Task Control [0.6882042556551609]
物理シミュレーション文字に対する合成およびタスク駆動動作制御のための深層学習法を提案する。
我々は,複数の識別器をGANライクな設定で使用することにより,複数の参照動作から,特定の身体部分に対する分離された動作を同時に,直接的に学習する。
本稿では,複合動作模倣と多目的制御の両方を含む多目的課題に対するアプローチの適用性を示す。
論文 参考訳(メタデータ) (2023-05-05T05:02:41Z) - Inferring Versatile Behavior from Demonstrations by Matching Geometric
Descriptors [72.62423312645953]
人間は直感的にタスクを多目的に解決し、軌道に基づく計画や個々のステップの行動を変化させる。
現在のImitation Learningアルゴリズムは、通常、単調な専門家によるデモンストレーションのみを考慮し、状態アクションベースの設定で行動する。
代わりに、移動プリミティブの混合と分布マッチングの目的を組み合わせることで、専門家の行動と汎用性にマッチする多目的行動を学ぶ。
論文 参考訳(メタデータ) (2022-10-17T16:42:59Z) - Uni-Perceiver-MoE: Learning Sparse Generalist Models with Conditional
MoEs [63.936622239286685]
異なるタスクとモダリティ間の干渉が、この現象の主要な要因であることがわかった。
一般モデルに条件混合(Conditional Mixture-of-Experts)を導入する。
コード及び事前訓練されたジェネリストモデルは、解放される。
論文 参考訳(メタデータ) (2022-06-09T17:59:59Z) - Imitation Learning from MPC for Quadrupedal Multi-Gait Control [63.617157490920505]
本稿では,歩行ロボットの複数の歩行を模倣する単一ポリシーを学習する学習アルゴリズムを提案する。
モデル予測制御によって導かれる模擬学習のアプローチであるMPC-Netを使用し、拡張します。
ハードウェアに対する我々のアプローチを検証し、学習したポリシーが教師に取って代わって複数の歩留まりを制御できることを示します。
論文 参考訳(メタデータ) (2021-03-26T08:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。