論文の概要: ExBody2: Advanced Expressive Humanoid Whole-Body Control
- arxiv url: http://arxiv.org/abs/2412.13196v1
- Date: Tue, 17 Dec 2024 18:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 17:09:38.846959
- Title: ExBody2: Advanced Expressive Humanoid Whole-Body Control
- Title(参考訳): ExBody2:高度な表現型ヒューマノイド全体制御
- Authors: Mazeyu Ji, Xuanbin Peng, Fangchen Liu, Jialong Li, Ge Yang, Xuxin Cheng, Xiaolong Wang,
- Abstract要約: 動作を模倣するヒューマノイドを制御できる全身追跡フレームワークであるExBody2を提案する。
モデルは強化学習(Reinforcement Learning)を用いてシミュレーションでトレーニングされ、その後現実世界に移行する。
2つのヒューマノイドプラットフォーム上で実験を行い、最先端技術に対するアプローチの優位性を実証する。
- 参考スコア(独自算出の注目度): 16.69009772546575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper enables real-world humanoid robots to maintain stability while performing expressive motions like humans do. We propose ExBody2, a generalized whole-body tracking framework that can take any reference motion inputs and control the humanoid to mimic the motion. The model is trained in simulation with Reinforcement Learning and then transferred to the real world. It decouples keypoint tracking with velocity control, and effectively leverages a privileged teacher policy to distill precise mimic skills into the target student policy, which enables high-fidelity replication of dynamic movements such as running, crouching, dancing, and other challenging motions. We present a comprehensive qualitative and quantitative analysis of crucial design factors in the paper. We conduct our experiments on two humanoid platforms and demonstrate the superiority of our approach against state-of-the-arts, providing practical guidelines to pursue the extreme of whole-body control for humanoid robots.
- Abstract(参考訳): 本稿では,現実のヒューマノイドロボットが人間のように表現力のある動作をしながら,安定性を維持できることを示す。
本稿では,参照動作の入力を受け取り,ヒューマノイドを制御して動作を模倣する汎用的な全身追跡フレームワークであるExBody2を提案する。
モデルは強化学習(Reinforcement Learning)を用いてシミュレーションでトレーニングされ、その後現実世界に移行する。
キーポイントトラッキングとベロシティ制御を分離し、特権教師ポリシーを効果的に活用し、ターゲットの学生ポリシーに正確な模倣スキルを抽出し、ランニング、しゃがみ、ダンス、その他の挑戦的な動作などの動的運動の忠実度の高い複製を可能にする。
本稿では,本論文における重要な設計要因の総合的質的,定量的分析について述べる。
我々は2つのヒューマノイドプラットフォーム上で実験を行い、最先端技術に対するアプローチの優位性を実証し、ヒューマノイドロボットの全身制御を極端に追求するための実践的ガイドラインを提供する。
関連論文リスト
- DexTrack: Towards Generalizable Neural Tracking Control for Dexterous Manipulation from Human References [18.947295547196774]
我々は,人間の参照からのデクスタス操作のための汎用型ニューラルトラッキングコントローラを開発する上での課題に対処する。
本稿では,ロボット追跡実験を大規模に成功させる手法を提案する。
本手法は,トップベースラインに比べて10%以上の成功率向上を実現している。
論文 参考訳(メタデータ) (2025-02-13T18:59:13Z) - Learning Multi-Modal Whole-Body Control for Real-World Humanoid Robots [13.229028132036321]
Masked Humanoid Controller (MHC)は、立位、歩行、体の一部の動きの模倣をサポートする。
MHCは、立ち上がり、歩行、最適化された基準軌跡、再ターゲットされたビデオクリップ、人間のモーションキャプチャーデータにまたがる行動のライブラリから、部分的にマスクされた動きを模倣する。
実世界のDigi V3ヒューマノイドロボット上でのシミュレート・トゥ・リアルトランスファーを実演する。
論文 参考訳(メタデータ) (2024-07-30T09:10:24Z) - Agile and versatile bipedal robot tracking control through reinforcement learning [12.831810518025309]
本稿では,二足歩行ロボットのための多目的コントローラを提案する。
足首と身体の軌跡を、単一の小さなニューラルネットワークを用いて広範囲の歩行で追跡する。
最小限の制御ユニットと高レベルなポリシーを組み合わせることで、高いフレキシブルな歩行制御を実現することができる。
論文 参考訳(メタデータ) (2024-04-12T05:25:03Z) - Visual Whole-Body Control for Legged Loco-Manipulation [22.50054654508986]
そこで本研究では,ロボットアームを用いた移動操作の問題点について検討する。
視覚的観察により全身制御を自律的に行うことのできる枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-25T17:26:08Z) - Expressive Whole-Body Control for Humanoid Robots [20.132927075816742]
我々は、人間の動きをできるだけリアルに模倣するために、人間サイズのロボットで全身制御ポリシーを学習する。
シミュレーションとSim2Real転送のトレーニングにより、私たちのポリシーはヒューマノイドロボットを制御して、さまざまなスタイルで歩いたり、人と握手したり、現実世界で人間と踊ったりできる。
論文 参考訳(メタデータ) (2024-02-26T18:09:24Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Real-World Humanoid Locomotion with Reinforcement Learning [92.85934954371099]
実世界におけるヒューマノイド移動に対する完全学習型アプローチを提案する。
コントローラーは様々な屋外の地形の上を歩けるし、外乱に対して頑丈で、状況に応じて適応できる。
論文 参考訳(メタデータ) (2023-03-06T18:59:09Z) - Skeleton2Humanoid: Animating Simulated Characters for
Physically-plausible Motion In-betweening [59.88594294676711]
現代の深層学習に基づく運動合成アプローチは、合成された運動の物理的妥当性をほとんど考慮していない。
テスト時に物理指向の動作補正を行うシステムSkeleton2Humanoid'を提案する。
挑戦的なLaFAN1データセットの実験は、物理的妥当性と精度の両方の観点から、我々のシステムが先行手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-09T16:15:34Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Residual Force Control for Agile Human Behavior Imitation and Extended
Motion Synthesis [32.22704734791378]
強化学習は、モーションキャプチャーデータからヒューマノイド制御ポリシーを学習することで、現実的な人間の行動に大きな可能性を示してきた。
バレエダンスのような洗練された人間のスキルを再現することや、複雑な移行を伴う長期的な人間の振る舞いを安定して模倣することは、依然として非常に困難である。
動作空間に外部残留力を加えることでヒューマノイド制御ポリシーを強化する新しいアプローチである残留力制御(RFC)を提案する。
論文 参考訳(メタデータ) (2020-06-12T17:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。