論文の概要: GBC: Generalized Behavior-Cloning Framework for Whole-Body Humanoid Imitation
- arxiv url: http://arxiv.org/abs/2508.09960v1
- Date: Wed, 13 Aug 2025 17:28:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.97508
- Title: GBC: Generalized Behavior-Cloning Framework for Whole-Body Humanoid Imitation
- Title(参考訳): GBC:全体ヒューマノイド模倣のための一般化行動分類フレームワーク
- Authors: Yifei Yao, Chengyuan Luo, Jiaheng Du, Wentao He, Jun-Guo Lu,
- Abstract要約: Generalized Behavior Cloning (GBC)は、このエンドツーエンドの課題を解決するために設計された、包括的で統一されたソリューションである。
まず、適応データパイプラインは、識別可能なIKネットワークを利用して、人間のMoCapデータを任意のヒューマノイドに自動的に再ターゲットする。
第二に、MMTransformerアーキテクチャを用いた新しいDAgger-MMPPOアルゴリズムは、堅牢で高忠実な模倣ポリシーを学習する。
- 参考スコア(独自算出の注目度): 5.426712963311386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The creation of human-like humanoid robots is hindered by a fundamental fragmentation: data processing and learning algorithms are rarely universal across different robot morphologies. This paper introduces the Generalized Behavior Cloning (GBC) framework, a comprehensive and unified solution designed to solve this end-to-end challenge. GBC establishes a complete pathway from human motion to robot action through three synergistic innovations. First, an adaptive data pipeline leverages a differentiable IK network to automatically retarget any human MoCap data to any humanoid. Building on this foundation, our novel DAgger-MMPPO algorithm with its MMTransformer architecture learns robust, high-fidelity imitation policies. To complete the ecosystem, the entire framework is delivered as an efficient, open-source platform based on Isaac Lab, empowering the community to deploy the full workflow via simple configuration scripts. We validate the power and generality of GBC by training policies on multiple heterogeneous humanoids, demonstrating excellent performance and transfer to novel motions. This work establishes the first practical and unified pathway for creating truly generalized humanoid controllers.
- Abstract(参考訳): 人間のようなヒューマノイドロボットの作成は、データ処理と学習アルゴリズムがさまざまなロボット形態にわたって普遍的であることは滅多にないという、基本的な断片化によって妨げられている。
本稿では、このエンドツーエンドの課題を解決するために設計された、包括的で統一されたソリューションである、一般化行動クローニング(GBC)フレームワークを紹介する。
GBCは3つのシナジスティックな革新を通じて、人間の動きからロボットの動きへの完全な経路を確立する。
まず、適応データパイプラインは、識別可能なIKネットワークを活用して、人間のMoCapデータを任意のヒューマノイドに自動的に再ターゲットする。
この基盤に基づいて,MMTransformerアーキテクチャを用いた新しいDAgger-MMPPOアルゴリズムは,堅牢で高忠実な模倣ポリシーを学習する。
エコシステムを完成させるために、フレームワーク全体がIsaac Labをベースとした効率的でオープンソースなプラットフォームとして提供され、シンプルな構成スクリプトを通じて、コミュニティが完全なワークフローをデプロイできるようにする。
複数の異種ヒューマノイドに対するトレーニングポリシーによりGBCのパワーと汎用性を検証し、優れた性能と新規な動作への移行を示す。
この研究は、真に一般化されたヒューマノイドコントローラを作成するための、初めて実用的で統一された経路を確立する。
関連論文リスト
- From Experts to a Generalist: Toward General Whole-Body Control for Humanoid Robots [34.348365055311326]
BumbleBee (BB) は、モーションクラスタリングとsim-to-real適応を組み合わせたエキスパート・ジェネリストの学習フレームワークである。
BBは最先端の全身制御を実現し、実世界でのアジャイルで堅牢で汎用的なヒューマノイドのパフォーマンスのための新しいベンチマークを設定します。
論文 参考訳(メタデータ) (2025-06-15T09:09:34Z) - RoBridge: A Hierarchical Architecture Bridging Cognition and Execution for General Robotic Manipulation [90.81956345363355]
RoBridgeは、一般的なロボット操作のための階層的なインテリジェントアーキテクチャである。
大規模事前学習型視覚言語モデル(VLM)に基づくハイレベル認知プランナー(HCP)で構成されている。
強化学習の手続き的スキルを解き放ち、認知と実行のギャップを効果的に埋める。
論文 参考訳(メタデータ) (2025-05-03T06:17:18Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。