論文の概要: WholeBodyVLA: Towards Unified Latent VLA for Whole-Body Loco-Manipulation Control
- arxiv url: http://arxiv.org/abs/2512.11047v2
- Date: Mon, 15 Dec 2025 07:46:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 15:10:29.247552
- Title: WholeBodyVLA: Towards Unified Latent VLA for Whole-Body Loco-Manipulation Control
- Title(参考訳): WholeBodyVLA:Whole-Body Loco-Manipulation Controlのための統合潜在VLAを目指して
- Authors: Haoran Jiang, Jin Chen, Qingwen Bu, Li Chen, Modi Shi, Yanjie Zhang, Delong Li, Chuanzhe Suo, Chuang Wang, Zhihui Peng, Hongyang Li,
- Abstract要約: WholeBodyVLAはヒューマノイドのロコ操作のための統一的なフレームワークである。
AgiBot X2のヒューマノイドに関する総合的な実験を通じて検証され、以前のベースラインを21.3%上回った。
- 参考スコア(独自算出の注目度): 22.617383494100253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humanoid robots require precise locomotion and dexterous manipulation to perform challenging loco-manipulation tasks. Yet existing approaches, modular or end-to-end, are deficient in manipulation-aware locomotion. This confines the robot to a limited workspace, preventing it from performing large-space loco-manipulation. We attribute this to: (1) the challenge of acquiring loco-manipulation knowledge due to the scarcity of humanoid teleoperation data, and (2) the difficulty of faithfully and reliably executing locomotion commands, stemming from the limited precision and stability of existing RL controllers. To acquire richer loco-manipulation knowledge, we propose a unified latent learning framework that enables Vision-Language-Action (VLA) system to learn from low-cost action-free egocentric videos. Moreover, an efficient human data collection pipeline is devised to augment the dataset and scale the benefits. To execute the desired locomotion commands more precisely, we present a loco-manipulation-oriented (LMO) RL policy specifically tailored for accurate and stable core loco-manipulation movements, such as advancing, turning, and squatting. Building on these components, we introduce WholeBodyVLA, a unified framework for humanoid loco-manipulation. To the best of our knowledge, WholeBodyVLA is one of its kind enabling large-space humanoid loco-manipulation. It is verified via comprehensive experiments on the AgiBot X2 humanoid, outperforming prior baseline by 21.3%. It also demonstrates strong generalization and high extensibility across a broad range of tasks.
- Abstract(参考訳): ヒューマノイドロボットは、難易度の高いロボット操作を行うために、正確な移動と巧妙な操作を必要とする。
しかし、モジュラーやエンドツーエンドといった既存のアプローチは、操作対応のロコモーションでは不十分である。
これにより、ロボットは限られた作業空間に閉じ込められ、大空間のロコ操作ができない。
我々は,(1)ヒューマノイド遠隔操作データの不足によるロコ操作知識獲得の課題,(2)既存のRLコントローラの限られた精度と安定性から,ロコモーションコマンドを忠実かつ確実に実行することの難しさを考察する。
よりリッチなロコ操作知識を得るために、低コストなアクションフリーのエゴセントリックビデオからVLA(Vision-Language-Action)システムに学習を可能にする統合潜在学習フレームワークを提案する。
さらに、データセットを拡張し、そのメリットをスケールするために、効率的なヒューマンデータ収集パイプラインが考案されている。
所望の移動コマンドをより正確に実行するために,進路,旋回,しゃがみなど,正確で安定した中核操作動作に適したロコ操作指向(LMO)RLポリシーを提案する。
これらのコンポーネントに基づいて構築されたWholeBodyVLAは、ヒューマノイドのロコ操作のための統一的なフレームワークである。
私たちの知る限りでは、WholeBodyVLAは、大きな空間のヒューマノイドロコ操作を可能にするタイプの1つです。
AgiBot X2のヒューマノイドに関する総合的な実験を通じて検証され、以前のベースラインを21.3%上回った。
また、幅広いタスクにわたって強力な一般化と高い拡張性を示す。
関連論文リスト
- DemoHLM: From One Demonstration to Generalizable Humanoid Loco-Manipulation [29.519071338337685]
シミュレーションにおける1つのデモから,実ロボット上でのヒューマノイドロコ操作のためのフレームワークであるDemoHLMを提案する。
全身のコントローラーは、全身のモーションコマンドを関節トルクにマッピングし、ヒューマノイドロボットのための全方向移動手段を提供する。
実験では, 合成データ量と政策性能との間に正の相関が認められた。
論文 参考訳(メタデータ) (2025-10-13T10:49:40Z) - ResMimic: From General Motion Tracking to Humanoid Whole-body Loco-Manipulation via Residual Learning [59.64325421657381]
ヒューマノイド全体のロコ操作は、日々のサービスや倉庫のタスクにトランスフォーメーション機能を約束する。
ResMimicは、人間の動作データから正確に表現力のあるヒューマノイド制御のための2段階の残差学習フレームワークである。
結果は、強いベースラインよりもタスク成功、トレーニング効率、堅牢性が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-10-06T17:47:02Z) - Humanoid Agent via Embodied Chain-of-Action Reasoning with Multimodal Foundation Models for Zero-Shot Loco-Manipulation [23.43820490179566]
Humanoid-COAはゼロショットロコ操作のためのエボディード・チェーン・オブ・アクション機構と基礎モデル推論を統合している。
我々のフレームワークは、操作、移動、およびロコ操作タスクにおいて、以前のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-04-13T11:37:32Z) - HOMIE: Humanoid Loco-Manipulation with Isomorphic Exoskeleton Cockpit [52.12750762494588]
本稿では,半自律遠隔操作システムHOMIEを紹介する。
ペダルにマッピングされた身体制御のための強化学習ポリシー、腕制御のための異形外骨格アーム、手操作のためのモーションセンシンググローブを組み合わせている。
このシステムは完全なオープンソースであり、デモとコードはhttps://homietele.org/.com/で見ることができる。
論文 参考訳(メタデータ) (2025-02-18T16:33:38Z) - DexterityGen: Foundation Controller for Unprecedented Dexterity [67.15251368211361]
ツール使用など,ロボットの巧妙な操作スキルを教えることは,大きな課題となる。
現在のアプローチは、人間の遠隔操作(模倣学習)とシミュレート・トゥ・リアル強化学習(sim-to-real reinforcement learning)の2つの戦略に大別できる。
本稿では,手動回転や翻訳などの大規模動きプリミティブをRLで事前学習するDexterityGenを紹介する。
現実の世界では、人間の遠隔操作をコントローラーのプロンプトとして利用し、厳密な振る舞いを生み出す。
論文 参考訳(メタデータ) (2025-02-06T18:49:35Z) - Mobile-TeleVision: Predictive Motion Priors for Humanoid Whole-Body Control [18.269588421166503]
ヒューマノイドロボットは頑丈な下半身移動と正確な上半身操作を必要とする。
最近の強化学習アプローチは、全身のロコ操作ポリシーを提供するが、正確な操作はしていない。
Inverses (IK) と Motion を用いた高体力制御を導入し, 高精度な操作を行う。
CVAEは安定性とロバスト性に重要な特徴であり,RLによる全身制御よりも高い精度で操作できることが示唆された。
論文 参考訳(メタデータ) (2024-12-10T18:59:50Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。