論文の概要: H-GAP: Humanoid Control with a Generalist Planner
- arxiv url: http://arxiv.org/abs/2312.02682v1
- Date: Tue, 5 Dec 2023 11:40:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 15:54:49.403290
- Title: H-GAP: Humanoid Control with a Generalist Planner
- Title(参考訳): H-GAP:ジェネリストプランナーによるヒューマノイド制御
- Authors: Zhengyao Jiang, Yingchen Xu, Nolan Wagener, Yicheng Luo, Michael
Janner, Edward Grefenstette, Tim Rockt\"aschel, Yuandong Tian
- Abstract要約: ヒューマノイド一般自動符号化プランナー(Humanoid Generalist Autoencoding Planner、H-GAP)は、人間のモーションキャプチャーデータから派生したヒューマノイド軌道に基づいて訓練された生成モデルである。
56自由度ヒューマノイドでは、H-GAPが幅広い運動行動の表現と生成を学習していることが実証的に証明されている。
また,H-GAPのスケーリング特性に関する実証的研究を行い,データの追加による性能向上の可能性を示した。
- 参考スコア(独自算出の注目度): 45.50995825122686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humanoid control is an important research challenge offering avenues for
integration into human-centric infrastructures and enabling physics-driven
humanoid animations. The daunting challenges in this field stem from the
difficulty of optimizing in high-dimensional action spaces and the instability
introduced by the bipedal morphology of humanoids. However, the extensive
collection of human motion-captured data and the derived datasets of humanoid
trajectories, such as MoCapAct, paves the way to tackle these challenges. In
this context, we present Humanoid Generalist Autoencoding Planner (H-GAP), a
state-action trajectory generative model trained on humanoid trajectories
derived from human motion-captured data, capable of adeptly handling downstream
control tasks with Model Predictive Control (MPC). For 56 degrees of freedom
humanoid, we empirically demonstrate that H-GAP learns to represent and
generate a wide range of motor behaviours. Further, without any learning from
online interactions, it can also flexibly transfer these behaviors to solve
novel downstream control tasks via planning. Notably, H-GAP excels established
MPC baselines that have access to the ground truth dynamics model, and is
superior or comparable to offline RL methods trained for individual tasks.
Finally, we do a series of empirical studies on the scaling properties of
H-GAP, showing the potential for performance gains via additional data but not
computing. Code and videos are available at
https://ycxuyingchen.github.io/hgap/.
- Abstract(参考訳): ヒューマノイド制御は、人間中心のインフラに統合し、物理駆動のヒューマノイドアニメーションを可能にするための道を提供する重要な研究課題である。
この分野での難題は、高次元の作用空間における最適化の難しさと、ヒューマノイドの2足歩行形態によってもたらされる不安定性に起因している。
しかし、人間のモーションキャプチャーデータと、MoCapActのようなヒューマノイド軌道の派生データセットの広範な収集は、これらの課題に対処する道を開く。
この文脈では、人体運動キャプチャーデータから得られたヒューマノイド軌跡に基づいて訓練された状態行動軌跡生成モデルであるHumanoid Generalist Autoencoding Planner(H-GAP)を、モデル予測制御(MPC)を用いて下流制御タスクを適切に処理することができる。
56自由度ヒューマノイドでは、H-GAPが幅広い運動行動の表現と生成を学ぶことを実証的に示す。
さらに、オンラインインタラクションから学ばなくても、これらの動作を柔軟に転送して、新しい下流制御タスクを計画を通じて解決することができる。
特に、H-GAPは、基底真理力学モデルにアクセス可能な確立されたMPCベースラインを抜いて、個々のタスクのために訓練されたオフラインRLメソッドよりも優れているか、あるいは同等である。
最後に,H-GAPのスケーリング特性に関する実証的研究を行い,データの追加による性能向上の可能性を示す。
コードとビデオはhttps://ycxuyingchen.github.io/hgap/で入手できる。
関連論文リスト
- The Role of Domain Randomization in Training Diffusion Policies for Whole-Body Humanoid Control [14.36344580057985]
Policies Diffusion (DPs)は、ロボット操作の驚くべき結果を示している。
本稿では,人体全体制御のためのDPの性能に及ぼすデータセットの多様性とサイズの影響について検討する。
論文 参考訳(メタデータ) (2024-11-02T19:33:28Z) - ImDy: Human Inverse Dynamics from Imitated Observations [47.994797555884325]
逆ダイナミクス(ID)は、人間の運動学的観察から駆動トルクを再現することを目的としている。
従来の最適化ベースのIDは高価な実験室のセットアップを必要とし、可用性を制限している。
本稿では、近年進歩的な人間の動作模倣アルゴリズムを利用して、データ駆動方式で人間の逆ダイナミクスを学習することを提案する。
論文 参考訳(メタデータ) (2024-10-23T07:06:08Z) - HINT: Learning Complete Human Neural Representations from Limited Viewpoints [69.76947323932107]
我々は、限られた視野角から詳細な人間のモデルを学習できるNeRFベースのアルゴリズムを提案する。
その結果,数個の視角からでも完全な人間の再構築が可能となり,性能は15%以上向上した。
論文 参考訳(メタデータ) (2024-05-30T05:43:09Z) - Humanoid Locomotion as Next Token Prediction [84.21335675130021]
我々のモデルは感覚運動軌道の自己回帰予測によって訓練された因果変換器である。
われわれのモデルでは、フルサイズのヒューマノイドがサンフランシスコでゼロショットで歩けることが示されている。
われわれのモデルは、わずか27時間の歩行データで訓練された場合でも現実世界に移行でき、後方歩行のような訓練中に見えないコマンドを一般化することができる。
論文 参考訳(メタデータ) (2024-02-29T18:57:37Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Enhanced Human-Robot Collaboration using Constrained Probabilistic
Human-Motion Prediction [5.501477817904299]
本研究では,人間の関節の制約とシーンの制約を組み込んだ新しい動き予測フレームワークを提案する。
人間の腕のキネマティックモデルでテストされ、UR5ロボットアームと人間とロボットの協調的な設定で実装されている。
論文 参考訳(メタデータ) (2023-10-05T05:12:14Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Hierarchical Graph-Convolutional Variational AutoEncoding for Generative
Modelling of Human Motion [1.2599533416395767]
人間の動きのモデルは通常、軌跡予測または行動分類に焦点を当てるが、どちらもまれである。
本稿では,階層的変動オートエンコーダと深部グラフ畳み込みニューラルネットワークに基づく新しいアーキテクチャを提案する。
この階層型グラフ共進化型自己エンコーダ(HG-VAE)は、コヒーレントな動作を生成し、分布外データを検出し、モデルの後部への勾配上昇による欠落データを出力できることを示す。
論文 参考訳(メタデータ) (2021-11-24T16:21:07Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Residual Force Control for Agile Human Behavior Imitation and Extended
Motion Synthesis [32.22704734791378]
強化学習は、モーションキャプチャーデータからヒューマノイド制御ポリシーを学習することで、現実的な人間の行動に大きな可能性を示してきた。
バレエダンスのような洗練された人間のスキルを再現することや、複雑な移行を伴う長期的な人間の振る舞いを安定して模倣することは、依然として非常に困難である。
動作空間に外部残留力を加えることでヒューマノイド制御ポリシーを強化する新しいアプローチである残留力制御(RFC)を提案する。
論文 参考訳(メタデータ) (2020-06-12T17:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。