論文の概要: From Experts to a Generalist: Toward General Whole-Body Control for Humanoid Robots
- arxiv url: http://arxiv.org/abs/2506.12779v2
- Date: Thu, 19 Jun 2025 06:15:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 12:57:34.488208
- Title: From Experts to a Generalist: Toward General Whole-Body Control for Humanoid Robots
- Title(参考訳): 専門家からジェネラリストへ:ヒューマノイドロボットの全身制御に向けて
- Authors: Yuxuan Wang, Ming Yang, Weishuai Zeng, Yu Zhang, Xinrun Xu, Haobin Jiang, Ziluo Ding, Zongqing Lu,
- Abstract要約: BumbleBee (BB) は、モーションクラスタリングとsim-to-real適応を組み合わせたエキスパート・ジェネリストの学習フレームワークである。
BBは最先端の全身制御を実現し、実世界でのアジャイルで堅牢で汎用的なヒューマノイドのパフォーマンスのための新しいベンチマークを設定します。
- 参考スコア(独自算出の注目度): 34.348365055311326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving general agile whole-body control on humanoid robots remains a major challenge due to diverse motion demands and data conflicts. While existing frameworks excel in training single motion-specific policies, they struggle to generalize across highly varied behaviors due to conflicting control requirements and mismatched data distributions. In this work, we propose BumbleBee (BB), an expert-generalist learning framework that combines motion clustering and sim-to-real adaptation to overcome these challenges. BB first leverages an autoencoder-based clustering method to group behaviorally similar motions using motion features and motion descriptions. Expert policies are then trained within each cluster and refined with real-world data through iterative delta action modeling to bridge the sim-to-real gap. Finally, these experts are distilled into a unified generalist controller that preserves agility and robustness across all motion types. Experiments on two simulations and a real humanoid robot demonstrate that BB achieves state-of-the-art general whole-body control, setting a new benchmark for agile, robust, and generalizable humanoid performance in the real world.
- Abstract(参考訳): ヒューマノイドロボットに対するアジャイル全体のコントロールを全般的に達成することは、さまざまな動きの要求とデータ競合のため、依然として大きな課題である。
既存のフレームワークは単一のモーション固有のポリシーのトレーニングに優れていますが、制御要件の矛盾やデータ分散のミスマッチのため、非常に多様な振る舞いを一般化するのに苦労しています。
本研究では,これらの課題を克服するために,モーションクラスタリングとシム・トゥ・リアル適応を組み合わせたエキスパート・ジェネリスト学習フレームワークであるBumbleBee(BB)を提案する。
BBはまず、オートエンコーダベースのクラスタリング手法を利用して、動作特徴と動作記述を用いて行動的に類似した動作をグループ化する。
エキスパートポリシーは各クラスタ内でトレーニングされ、反復的なデルタアクションモデリングを通じて現実世界のデータで洗練され、sim-to-realギャップを埋める。
最後に、これらの専門家は、すべてのモーションタイプにまたがる俊敏性と堅牢性を維持する統一されたジェネリストコントローラに蒸留される。
2つのシミュレーションと本物のヒューマノイドロボットの実験により、BBは最先端の全身制御を実現し、実世界でのアジャイルで堅牢で汎用的なヒューマノイドのパフォーマンスのベンチマークを新たに設定した。
関連論文リスト
- Modular Recurrence in Contextual MDPs for Universal Morphology Control [0.0]
しかし、新しい、目に見えないロボットへの一般化は依然として課題だ。
モジュール型リカレントアーキテクチャを実装し,MuJoCoロボットの大規模集合上での一般化性能を評価する。
論文 参考訳(メタデータ) (2025-06-10T09:44:30Z) - GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - Universal Actions for Enhanced Embodied Foundation Models [25.755178700280933]
我々はUniversal Action Spaceで動作する新しい基礎モデリングフレームワークUniActを紹介する。
我々の学習した普遍行動は、共有された構造的特徴を利用して、多様なロボット間での一般的な原子の挙動を捉えます。
0.5BでのUniActのインスタンス化は、様々な実世界およびシミュレーションロボットの広範囲な評価において、14倍のSOTAを具現化した基礎モデルより優れている。
論文 参考訳(メタデータ) (2025-01-17T10:45:22Z) - The One RING: a Robotic Indoor Navigation Generalist [58.30694487843546]
RING (Robotic Indoor Navigation Generalist) は、あらゆる移動ロボットを効果的な屋内セマンティックナビゲータに変えるための具体的方針である。
完全にシミュレーションで訓練されたRingは、ロボットによる大規模なランダム化を利用して、多くの現実世界のプラットフォームに堅牢な一般化を可能にする。
論文 参考訳(メタデータ) (2024-12-18T23:15:41Z) - CrowdMoGen: Zero-Shot Text-Driven Collective Motion Generation [43.12717215650305]
我々は、集合モーション生成のための最初のゼロショットフレームワークであるCrowdMoGenを紹介する。
CrowdMoGenは、個人を効果的にグループ化し、テキストプロンプトからイベント整列モーションシーケンスを生成する。
集合運動生成の第1のフレームワークとして、CrowdMoGenは、都市シミュレーション、群衆計画、その他の大規模対話環境における応用を前進させる可能性を秘めている。
論文 参考訳(メタデータ) (2024-07-08T17:59:36Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - On the Emergence of Whole-body Strategies from Humanoid Robot
Push-recovery Learning [32.070068456106895]
シミュレーション環境における汎用的で堅牢なヒューマノイドプッシュリカバリポリシーのトレーニングに,モデルフリーな深層強化学習を適用する。
本手法は高次元全体ヒューマノイド制御を目標とし,iCubヒューマノイド上で検証を行った。
論文 参考訳(メタデータ) (2021-04-29T17:49:20Z) - Deep Imitation Learning for Bimanual Robotic Manipulation [70.56142804957187]
本稿では,ロボットによるバイマニュアル操作のための深層模倣学習フレームワークを提案する。
中心となる課題は、操作スキルを異なる場所にあるオブジェクトに一般化することである。
i)マルチモーダルダイナミクスを要素運動プリミティブに分解し、(ii)リカレントグラフニューラルネットワークを用いて各プリミティブをパラメータ化して相互作用を捕捉し、(iii)プリミティブを逐次的に構成する高レベルプランナと、プリミティブダイナミクスと逆運動学制御を組み合わせた低レベルコントローラを統合することを提案する。
論文 参考訳(メタデータ) (2020-10-11T01:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。