論文の概要: GBC: Generalized Behavior-Cloning Framework for Whole-Body Humanoid Imitation
- arxiv url: http://arxiv.org/abs/2508.09960v1
- Date: Wed, 13 Aug 2025 17:28:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.97508
- Title: GBC: Generalized Behavior-Cloning Framework for Whole-Body Humanoid Imitation
- Title(参考訳): GBC:全体ヒューマノイド模倣のための一般化行動分類フレームワーク
- Authors: Yifei Yao, Chengyuan Luo, Jiaheng Du, Wentao He, Jun-Guo Lu,
- Abstract要約: Generalized Behavior Cloning (GBC)は、このエンドツーエンドの課題を解決するために設計された、包括的で統一されたソリューションである。
まず、適応データパイプラインは、識別可能なIKネットワークを利用して、人間のMoCapデータを任意のヒューマノイドに自動的に再ターゲットする。
第二に、MMTransformerアーキテクチャを用いた新しいDAgger-MMPPOアルゴリズムは、堅牢で高忠実な模倣ポリシーを学習する。
- 参考スコア(独自算出の注目度): 5.426712963311386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The creation of human-like humanoid robots is hindered by a fundamental fragmentation: data processing and learning algorithms are rarely universal across different robot morphologies. This paper introduces the Generalized Behavior Cloning (GBC) framework, a comprehensive and unified solution designed to solve this end-to-end challenge. GBC establishes a complete pathway from human motion to robot action through three synergistic innovations. First, an adaptive data pipeline leverages a differentiable IK network to automatically retarget any human MoCap data to any humanoid. Building on this foundation, our novel DAgger-MMPPO algorithm with its MMTransformer architecture learns robust, high-fidelity imitation policies. To complete the ecosystem, the entire framework is delivered as an efficient, open-source platform based on Isaac Lab, empowering the community to deploy the full workflow via simple configuration scripts. We validate the power and generality of GBC by training policies on multiple heterogeneous humanoids, demonstrating excellent performance and transfer to novel motions. This work establishes the first practical and unified pathway for creating truly generalized humanoid controllers.
- Abstract(参考訳): 人間のようなヒューマノイドロボットの作成は、データ処理と学習アルゴリズムがさまざまなロボット形態にわたって普遍的であることは滅多にないという、基本的な断片化によって妨げられている。
本稿では、このエンドツーエンドの課題を解決するために設計された、包括的で統一されたソリューションである、一般化行動クローニング(GBC)フレームワークを紹介する。
GBCは3つのシナジスティックな革新を通じて、人間の動きからロボットの動きへの完全な経路を確立する。
まず、適応データパイプラインは、識別可能なIKネットワークを活用して、人間のMoCapデータを任意のヒューマノイドに自動的に再ターゲットする。
この基盤に基づいて,MMTransformerアーキテクチャを用いた新しいDAgger-MMPPOアルゴリズムは,堅牢で高忠実な模倣ポリシーを学習する。
エコシステムを完成させるために、フレームワーク全体がIsaac Labをベースとした効率的でオープンソースなプラットフォームとして提供され、シンプルな構成スクリプトを通じて、コミュニティが完全なワークフローをデプロイできるようにする。
複数の異種ヒューマノイドに対するトレーニングポリシーによりGBCのパワーと汎用性を検証し、優れた性能と新規な動作への移行を示す。
この研究は、真に一般化されたヒューマノイドコントローラを作成するための、初めて実用的で統一された経路を確立する。
関連論文リスト
- FRoM-W1: Towards General Humanoid Whole-Body Control with Language Instructions [147.04372611893032]
FRoM-W1は、自然言語を用いた一般的なヒューマノイド全体の動作制御を実現するために設計されたオープンソースのフレームワークである。
我々はUnitree H1とG1ロボット上でFRoM-W1を広範囲に評価した。
その結果,HumanML3D-Xベンチマークにおいて,人体全体の動作生成に優れた性能を示した。
論文 参考訳(メタデータ) (2026-01-19T07:59:32Z) - Generalizable Geometric Prior and Recurrent Spiking Feature Learning for Humanoid Robot Manipulation [90.90219129619344]
本稿では,スパイキング機能を備えたR-prior-S, Recurrent Geometric-priormodal Policyを提案する。
物理的現実の高レベル推論を基礎として、軽量な2次元幾何学的帰納バイアスを利用する。
ロボット行動生成におけるデータ効率問題に対して,再帰的適応スパイクネットワークを導入する。
論文 参考訳(メタデータ) (2026-01-13T23:36:30Z) - MiVLA: Towards Generalizable Vision-Language-Action Model with Human-Robot Mutual Imitation Pre-training [102.850162490626]
人間のロボットによる相互模倣事前学習による視覚-言語-行動モデルであるMiVLAを提案する。
MiVLAは、最先端のVLAよりも優れた、強力な改良された一般化能力を実現する。
論文 参考訳(メタデータ) (2025-12-17T12:59:41Z) - Opening the Sim-to-Real Door for Humanoid Pixel-to-Action Policy Transfer [59.02729900344616]
GPUを加速したフォトリアリスティックなシミュレーションは、ロボット学習のためのスケーラブルなデータ生成パスを開いた。
視覚に基づくヒューマノイドロコ操作のための教師-学生-ブートストラップ学習フレームワークを開発した。
これは、純粋なRGB知覚を用いた多様な調音ロコ操作が可能な初めてのヒューマノイド・シム・トゥ・リアル政策である。
論文 参考訳(メタデータ) (2025-11-30T20:07:13Z) - DemoHLM: From One Demonstration to Generalizable Humanoid Loco-Manipulation [29.519071338337685]
シミュレーションにおける1つのデモから,実ロボット上でのヒューマノイドロコ操作のためのフレームワークであるDemoHLMを提案する。
全身のコントローラーは、全身のモーションコマンドを関節トルクにマッピングし、ヒューマノイドロボットのための全方向移動手段を提供する。
実験では, 合成データ量と政策性能との間に正の相関が認められた。
論文 参考訳(メタデータ) (2025-10-13T10:49:40Z) - OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [76.44108003274955]
ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、強化学習ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
インタラクションメッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介する。
人間のメッシュとロボットメッシュの間のラプラシアの変形を最小限にすることで、OmniRetargetは運動学的に実現可能な軌道を生成する。
論文 参考訳(メタデータ) (2025-09-30T17:59:02Z) - From Experts to a Generalist: Toward General Whole-Body Control for Humanoid Robots [34.348365055311326]
BumbleBee (BB) は、モーションクラスタリングとsim-to-real適応を組み合わせたエキスパート・ジェネリストの学習フレームワークである。
BBは最先端の全身制御を実現し、実世界でのアジャイルで堅牢で汎用的なヒューマノイドのパフォーマンスのための新しいベンチマークを設定します。
論文 参考訳(メタデータ) (2025-06-15T09:09:34Z) - RoBridge: A Hierarchical Architecture Bridging Cognition and Execution for General Robotic Manipulation [90.81956345363355]
RoBridgeは、一般的なロボット操作のための階層的なインテリジェントアーキテクチャである。
大規模事前学習型視覚言語モデル(VLM)に基づくハイレベル認知プランナー(HCP)で構成されている。
強化学習の手続き的スキルを解き放ち、認知と実行のギャップを効果的に埋める。
論文 参考訳(メタデータ) (2025-05-03T06:17:18Z) - Human-Humanoid Robots Cross-Embodiment Behavior-Skill Transfer Using Decomposed Adversarial Learning from Demonstration [9.42179962375058]
本稿では,デジタル人間モデルを共通プロトタイプとして使用することにより,データのボトルネックを低減するための転送可能なフレームワークを提案する。
このモデルは、人間による実演から、敵対的な模倣を通して行動プリミティブを学習し、複雑なロボット構造を機能的な構成要素に分解する。
本フレームワークは,多種多様な構成のヒューマノイドロボット5体を用いて検証した。
論文 参考訳(メタデータ) (2024-12-19T18:41:45Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。