論文の概要: Natural Humanoid Robot Locomotion with Generative Motion Prior
- arxiv url: http://arxiv.org/abs/2503.09015v1
- Date: Wed, 12 Mar 2025 03:04:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:38:26.255769
- Title: Natural Humanoid Robot Locomotion with Generative Motion Prior
- Title(参考訳): 生成運動を先行した自然型ヒューマノイドロボットの移動
- Authors: Haodong Zhang, Liang Zhang, Zhenghan Chen, Lu Chen, Yue Wang, Rong Xiong,
- Abstract要約: 本稿では,ヒューマノイドロボットの移動作業のきめ細かい監督を行う新しいジェネレーティブ・モーション・プライオリティ(GMP)を提案する。
我々は、条件付き変分自動エンコーダに基づいて、ロボットの将来の自然参照動作を予測するために、生成モデルをオフラインでトレーニングする。
政策訓練の間、生成運動は凍結したオンラインモーションジェネレータとして機能し、軌道レベルで正確に包括的な監視を提供する。
- 参考スコア(独自算出の注目度): 21.147249860051616
- License:
- Abstract: Natural and lifelike locomotion remains a fundamental challenge for humanoid robots to interact with human society. However, previous methods either neglect motion naturalness or rely on unstable and ambiguous style rewards. In this paper, we propose a novel Generative Motion Prior (GMP) that provides fine-grained motion-level supervision for the task of natural humanoid robot locomotion. To leverage natural human motions, we first employ whole-body motion retargeting to effectively transfer them to the robot. Subsequently, we train a generative model offline to predict future natural reference motions for the robot based on a conditional variational auto-encoder. During policy training, the generative motion prior serves as a frozen online motion generator, delivering precise and comprehensive supervision at the trajectory level, including joint angles and keypoint positions. The generative motion prior significantly enhances training stability and improves interpretability by offering detailed and dense guidance throughout the learning process. Experimental results in both simulation and real-world environments demonstrate that our method achieves superior motion naturalness compared to existing approaches. Project page can be found at https://sites.google.com/view/humanoid-gmp
- Abstract(参考訳): 自然と生活のような移動は、人間の社会と対話するヒューマノイドロボットにとって、依然として根本的な課題である。
しかし、従来の方法は動きの自然さを無視するか、不安定であいまいなスタイルの報酬に頼るかのいずれかであった。
本稿では,自然人型ロボットの移動作業に対して,よりきめ細かな動作レベルの監視を可能にする新しいジェネレーティブ・モーション・プライオリティ(GMP)を提案する。
自然の人間の動きを活用するために、私たちはまず体全体をリターゲティングしてロボットに効果的に転送する。
その後、条件付き変分自動エンコーダに基づいて、生成モデルをオフラインでトレーニングし、未来のロボットの自然な参照動作を予測する。
政策訓練の間、生成運動は凍結したオンラインモーションジェネレータとして機能し、関節角やキーポイント位置を含む軌道レベルの精密かつ包括的な監視を提供する。
この生成動作は、学習過程全体を通して、詳細な、密集したガイダンスを提供することにより、トレーニングの安定性を著しく向上し、解釈可能性を向上させる。
シミュレーションと実環境の両方における実験結果から,本手法は既存手法に比べて動作自然性に優れることが示された。
プロジェクトページはhttps://sites.google.com/view/ Humanoid-gmpで見ることができる。
関連論文リスト
- Learning Human-to-Humanoid Real-Time Whole-Body Teleoperation [34.65637397405485]
本稿では,Human to Humanoid(H2O)について紹介する。H2Oは,RGBカメラのみを搭載したヒューマノイドロボットのリアルタイム遠隔操作を実現するフレームワークである。
我々は、これらの洗練された動きを用いてシミュレーションで頑健なリアルタイムヒューマノイド運動模倣機を訓練し、実ヒューマノイドロボットにゼロショットで転送する。
私たちの知る限りでは、学習に基づくリアルタイムな人型ロボット遠隔操作を実現する最初のデモとなる。
論文 参考訳(メタデータ) (2024-03-07T12:10:41Z) - Expressive Whole-Body Control for Humanoid Robots [20.132927075816742]
我々は、人間の動きをできるだけリアルに模倣するために、人間サイズのロボットで全身制御ポリシーを学習する。
シミュレーションとSim2Real転送のトレーニングにより、私たちのポリシーはヒューマノイドロボットを制御して、さまざまなスタイルで歩いたり、人と握手したり、現実世界で人間と踊ったりできる。
論文 参考訳(メタデータ) (2024-02-26T18:09:24Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Naturalistic Robot Arm Trajectory Generation via Representation Learning [4.7682079066346565]
家庭環境におけるマニピュレータロボットの統合は、より予測可能な人間のようなロボットの動きの必要性を示唆している。
自然主義的な運動軌跡を生成する方法の1つは、人間のデモ隊の模倣によるものである。
本稿では,自己回帰型ニューラルネットワークを用いた自己指導型模倣学習法について検討する。
論文 参考訳(メタデータ) (2023-09-14T09:26:03Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - Future Frame Prediction for Robot-assisted Surgery [57.18185972461453]
本稿では,ロボット手術用ビデオシーケンスにおけるフレーム予測のためのtpg-vaeモデルを提案する。
コンテンツ配信に加えて、私たちのモデルは、手術ツールの小さな動きを処理するために斬新な運動分布を学習します。
論文 参考訳(メタデータ) (2021-03-18T15:12:06Z) - Learning Quadrupedal Locomotion over Challenging Terrain [68.51539602703662]
足の移動はロボティクスの操作領域を劇的に拡張することができる。
足の移動のための従来のコントローラーは、運動プリミティブと反射の実行を明示的にトリガーする精巧な状態マシンに基づいている。
ここでは、自然環境に挑戦する際の足の移動に対して、徹底的に頑健な制御器を提案する。
論文 参考訳(メタデータ) (2020-10-21T19:11:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。