論文の概要: Human2LocoMan: Learning Versatile Quadrupedal Manipulation with Human Pretraining
- arxiv url: http://arxiv.org/abs/2506.16475v1
- Date: Thu, 19 Jun 2025 17:22:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.185226
- Title: Human2LocoMan: Learning Versatile Quadrupedal Manipulation with Human Pretraining
- Title(参考訳): 人間2ロコマン:人間の事前訓練による四足歩行操作の学習
- Authors: Yaru Niu, Yunzhe Zhang, Mingyang Yu, Changyi Lin, Chenhao Li, Yikai Wang, Yuxiang Yang, Wenhao Yu, Tingnan Zhang, Bingqing Chen, Jonathan Francis, Zhenzhen Li, Jie Tan, Ding Zhao,
- Abstract要約: 我々は,人間とロコマンの双方から収集したデータを活用して,四面体操作のためのクロス・エボディメント・模倣学習システムを提案する。
我々は,6つの実世界の操作タスクにおいて,平均成功率を41.9%向上させるシステムの有効性を検証した。
- 参考スコア(独自算出の注目度): 38.559900728422875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quadrupedal robots have demonstrated impressive locomotion capabilities in complex environments, but equipping them with autonomous versatile manipulation skills in a scalable way remains a significant challenge. In this work, we introduce a cross-embodiment imitation learning system for quadrupedal manipulation, leveraging data collected from both humans and LocoMan, a quadruped equipped with multiple manipulation modes. Specifically, we develop a teleoperation and data collection pipeline, which unifies and modularizes the observation and action spaces of the human and the robot. To effectively leverage the collected data, we propose an efficient modularized architecture that supports co-training and pretraining on structured modality-aligned data across different embodiments. Additionally, we construct the first manipulation dataset for the LocoMan robot, covering various household tasks in both unimanual and bimanual modes, supplemented by a corresponding human dataset. We validate our system on six real-world manipulation tasks, where it achieves an average success rate improvement of 41.9% overall and 79.7% under out-of-distribution (OOD) settings compared to the baseline. Pretraining with human data contributes a 38.6% success rate improvement overall and 82.7% under OOD settings, enabling consistently better performance with only half the amount of robot data. Our code, hardware, and data are open-sourced at: https://human2bots.github.io.
- Abstract(参考訳): 四足歩行ロボットは複雑な環境で印象的な移動能力を誇示してきたが、それらをスケーラブルな方法で自律的な多目的操作スキルに装備することは、依然として大きな課題だ。
本研究では,複数の操作モードを備えた四面体モデルであるLocoManと人間から収集したデータを活用した,四面体操作のためのクロス・エボディメント・模倣学習システムを提案する。
具体的には、人間とロボットの観察・行動空間を統一・モジュール化する遠隔操作・データ収集パイプラインを開発する。
収集したデータを効果的に活用するために,異なる実施形態にまたがる構造化モダリティ整合データに対する協調学習と事前学習を支援する,効率的なモジュール化アーキテクチャを提案する。
さらに,ロコマンロボットの最初の操作データセットを構築した。
本システムでは,6つの実世界の操作タスクにおいて,平均成功率を41.9%,アウト・オブ・ディストリビューション(OOD)設定で79.7%向上させる。
人間のデータによる事前トレーニングは、OOD設定下で38.6%の成功率の改善と82.7%の向上に寄与し、ロボットデータの半分の量で一貫してパフォーマンスが向上する。
私たちのコード、ハードウェア、データは、https://human2bots.github.io.comでオープンソース化されています。
関連論文リスト
- DexMimicGen: Automated Data Generation for Bimanual Dexterous Manipulation via Imitation Learning [42.88605563822155]
本稿では,人間の手による人型ロボットの人体実験からトラジェクトリを合成する大規模自動データ生成システムを提案する。
私たちは、たった60のソースの人間デモから、これらのタスク全体で21Kのデモを生成します。
また、実世界のヒューマノイド缶ソートタスクに、実世界のシミュレート・トゥ・リアルパイプラインを配置する。
論文 参考訳(メタデータ) (2024-10-31T17:48:45Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - BridgeData V2: A Dataset for Robot Learning at Scale [73.86688388408021]
BridgeData V2は、ロボット操作行動の大規模で多様なデータセットである。
対象は、24の環境にまたがる60,096個のトラジェクトリだ。
論文 参考訳(メタデータ) (2023-08-24T17:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。