論文の概要: MoCapAct: A Multi-Task Dataset for Simulated Humanoid Control
- arxiv url: http://arxiv.org/abs/2208.07363v1
- Date: Mon, 15 Aug 2022 17:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-08-16 15:11:35.233113
- Title: MoCapAct: A Multi-Task Dataset for Simulated Humanoid Control
- Title(参考訳): MoCapAct: 擬似ヒューマノイド制御のためのマルチタスクデータセット
- Authors: Nolan Wagener, Andrey Kolobov, Felipe Vieira Frujeri, Ricky Loynd,
Ching-An Cheng, Matthew Hausknecht
- Abstract要約: 私たちは、専門家エージェントとそのロールアウトのデータセットであるMoCapActをリリースします。
Dm_control内でMoCapデータセット全体を追跡可能な単一の階層的なポリシをトレーニングするために,MoCapActの有用性を実証する。
- 参考スコア(独自算出の注目度): 15.848947335588301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulated humanoids are an appealing research domain due to their physical
capabilities. Nonetheless, they are also challenging to control, as a policy
must drive an unstable, discontinuous, and high-dimensional physical system.
One widely studied approach is to utilize motion capture (MoCap) data to teach
the humanoid agent low-level skills (e.g., standing, walking, and running) that
can then be re-used to synthesize high-level behaviors. However, even with
MoCap data, controlling simulated humanoids remains very hard, as MoCap data
offers only kinematic information. Finding physical control inputs to realize
the demonstrated motions requires computationally intensive methods like
reinforcement learning. Thus, despite the publicly available MoCap data, its
utility has been limited to institutions with large-scale compute. In this
work, we dramatically lower the barrier for productive research on this topic
by training and releasing high-quality agents that can track over three hours
of MoCap data for a simulated humanoid in the dm_control physics-based
environment. We release MoCapAct (Motion Capture with Actions), a dataset of
these expert agents and their rollouts, which contain proprioceptive
observations and actions. We demonstrate the utility of MoCapAct by using it to
train a single hierarchical policy capable of tracking the entire MoCap dataset
within dm_control and show the learned low-level component can be re-used to
efficiently learn downstream high-level tasks. Finally, we use MoCapAct to
train an autoregressive GPT model and show that it can control a simulated
humanoid to perform natural motion completion given a motion prompt.
Videos of the results and links to the code and dataset are available at
https://microsoft.github.io/MoCapAct.
- Abstract(参考訳): シミュレーションされたヒューマノイドは、その物理的能力のために魅力的な研究領域である。
それでも、政策が不安定で不連続で高次元の物理的システムを駆動する必要があるため、コントロールも困難である。
広く研究されているアプローチの1つは、モーションキャプチャ(mocap)データを使用して、ヒューマノイドエージェントの低レベルスキル(立位、歩行、ランニングなど)を教えることである。
しかし、MoCapのデータでさえ、シミュレーションされたヒューマノイドの制御は非常に困難であり、MoCapのデータはキネマティック情報のみを提供する。
実演動作を実現するための物理的な制御入力を見つけるには、強化学習のような計算集約的な方法が必要である。
したがって、一般公開されているMoCapデータにもかかわらず、そのユーティリティは大規模コンピューティングを持つ機関に限られている。
本研究では,Dm_control物理環境におけるシミュレーションヒューマノイドに対する3時間以上のMoCapデータ追跡が可能な高品質エージェントのトレーニングとリリースにより,この話題に関する生産的研究の障壁を劇的に低くする。
私たちはこれらの専門家エージェントとそのロールアウトのデータセットであるMoCapAct(Motion Capture with Actions)をリリースします。
我々は,MoCapActを使うことで,dm_control内のMoCapデータセット全体を追跡可能な単一の階層的ポリシをトレーニングし,学習した低レベルコンポーネントを再使用して下流の高レベルタスクを効率的に学習できることを実証する。
最後に,mocapactを用いて自己回帰型gptモデルを訓練し,運動プロンプトによりシミュレーションされたヒューマノイドを制御し,自然な動作完了を行うことを示す。
結果のビデオとコードとデータセットへのリンクはhttps://microsoft.github.io/MoCapAct.comで公開されている。
関連論文リスト
- Imitating What Works: Simulation-Filtered Modular Policy Learning from Human Videos [56.510263910611684]
本研究では,様々な動作を行う前に物体をつかむタスクを包括的操作に対処する。
人間のビデオは、移植後の動作を学ぶための強力な信号を提供するが、必要な把握行動を学ぶのにはあまり役に立たない。
本稿では、人間の動画モーションデータを用いたモジュラー操作ポリシーをトレーニングするためのフレームワークであるPerceive-Simulate-Imitate(PSI)を提案する。
論文 参考訳(メタデータ) (2026-02-13T18:59:10Z) - SMP: Reusable Score-Matching Motion Priors for Physics-Based Character Control [20.779031780374115]
自然主義的行動を生み出すためのエージェントを導く行動は、人生のような仮想キャラクタを作成する上で重要な役割を担っている。
本稿では、事前学習した運動拡散モデルとスコア蒸留サンプリング(SDS)を利用して、再利用可能なタスク非依存動作前処理を生成するスコアマッチング動作優先処理(SMP)を提案する。
本手法は, 再利用可能な, モジュラーな動作前処理により, 最先端の対向的模倣学習手法に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2025-12-02T18:54:12Z) - SONIC: Supersizing Motion Tracking for Natural Humanoid Whole-Body Control [85.91101551600978]
モデルキャパシティ,データ,計算のスケールアップにより,自然かつ堅牢な体の動きを生成できる汎用的なヒューマノイドコントローラが得られることを示す。
我々は、ネットワークサイズ、データセットボリューム、計算の3つの軸に沿ってスケーリングすることで、モーショントラッキングのための基礎モデルを構築します。
本研究では,(1)動作追跡を下流タスク実行にブリッジし,自然かつインタラクティブな制御を可能にするリアルタイムユニバーサルキネマティックプランナ,(2)様々な動作入力インタフェースをサポートする統一トークン空間の2つのメカニズムにより,モデルの実用性を示す。
論文 参考訳(メタデータ) (2025-11-11T04:37:40Z) - DemoHLM: From One Demonstration to Generalizable Humanoid Loco-Manipulation [29.519071338337685]
シミュレーションにおける1つのデモから,実ロボット上でのヒューマノイドロコ操作のためのフレームワークであるDemoHLMを提案する。
全身のコントローラーは、全身のモーションコマンドを関節トルクにマッピングし、ヒューマノイドロボットのための全方向移動手段を提供する。
実験では, 合成データ量と政策性能との間に正の相関が認められた。
論文 参考訳(メタデータ) (2025-10-13T10:49:40Z) - ResMimic: From General Motion Tracking to Humanoid Whole-body Loco-Manipulation via Residual Learning [59.64325421657381]
ヒューマノイド全体のロコ操作は、日々のサービスや倉庫のタスクにトランスフォーメーション機能を約束する。
ResMimicは、人間の動作データから正確に表現力のあるヒューマノイド制御のための2段階の残差学習フレームワークである。
結果は、強いベースラインよりもタスク成功、トレーニング効率、堅牢性が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-10-06T17:47:02Z) - Dexplore: Scalable Neural Control for Dexterous Manipulation from Reference-Scoped Exploration [58.4036440289082]
ハンドオブジェクトモーションキャプチャ(MoCap)は、大規模でコンタクトに富んだデモと、器用なロボットスコープの約束を提供する。
Dexploreは、リポジトリとトラッキングを実行し、MoCapから直接ロボット制御ポリシーを学習する、統一された単一ループ最適化である。
論文 参考訳(メタデータ) (2025-09-11T17:59:07Z) - FreeMotion: MoCap-Free Human Motion Synthesis with Multimodal Large Language Models [19.09048969615117]
MLLMをベースとしたユーザ制御信号として自然言語命令を用いたオープンなヒューマンモーション合成について検討する。
本手法は,多くの下流タスクにおいて,一般的な人間の動作合成を実現することができる。
論文 参考訳(メタデータ) (2024-06-15T21:10:37Z) - DexCap: Scalable and Portable Mocap Data Collection System for Dexterous Manipulation [28.37054959647664]
人間の手の動きデータからの模倣学習は、現実世界の操作タスクにおいて、人間のような器用さでロボットを倒すための有望な道を示す。
携帯型ハンドモーションキャプチャシステムであるDexCapとDexILを紹介する。
論文 参考訳(メタデータ) (2024-03-12T16:23:49Z) - Humanoid Locomotion as Next Token Prediction [84.21335675130021]
我々のモデルは感覚運動軌道の自己回帰予測によって訓練された因果変換器である。
われわれのモデルでは、フルサイズのヒューマノイドがサンフランシスコでゼロショットで歩けることが示されている。
われわれのモデルは、わずか27時間の歩行データで訓練された場合でも現実世界に移行でき、後方歩行のような訓練中に見えないコマンドを一般化することができる。
論文 参考訳(メタデータ) (2024-02-29T18:57:37Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - H-GAP: Humanoid Control with a Generalist Planner [45.50995825122686]
ヒューマノイド一般自動符号化プランナー(Humanoid Generalist Autoencoding Planner、H-GAP)は、人間のモーションキャプチャーデータから派生したヒューマノイド軌道に基づいて訓練された生成モデルである。
56自由度ヒューマノイドでは、H-GAPが幅広い運動行動の表現と生成を学習していることが実証的に証明されている。
また,H-GAPのスケーリング特性に関する実証的研究を行い,データの追加による性能向上の可能性を示した。
論文 参考訳(メタデータ) (2023-12-05T11:40:24Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Masked Motion Predictors are Strong 3D Action Representation Learners [143.9677635274393]
人間の3次元行動認識では、教師付きデータが限られており、トランスフォーマーのような強力なネットワークのモデリング能力を十分に活用することは困難である。
人間の関節において、マスク付き自己成分再構成を行うための一般的な前提に従わず、明示的な文脈運動モデリングが、3次元動作認識のための効果的な特徴表現の学習の成功の鍵となることを示す。
論文 参考訳(メタデータ) (2023-08-14T11:56:39Z) - Perpetual Humanoid Control for Real-time Simulated Avatars [77.05287269685911]
本稿では,高忠実度動作模倣と耐故障動作を実現する物理に基づくヒューマノイドコントローラを提案する。
コントローラは、外部の安定化力を使わずに1万本のモーションクリップを学習できる。
実時間およびリアルタイムのマルチパーソンアバター使用事例において,映像ベースのポーズ推定器と言語ベースのモーションジェネレータからノイズのあるポーズを模倣するために,制御器の有効性を実証する。
論文 参考訳(メタデータ) (2023-05-10T20:51:37Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - AirCapRL: Autonomous Aerial Human Motion Capture using Deep
Reinforcement Learning [38.429105809093116]
自律型空中人体モーションキャプチャ(MoCap)のための深部強化学習(RL)に基づくマルチロボット生成コントローラを提案する。
視覚に基づくMoCapに焦点をあて,体ポーズの軌跡を推定し,複数の空飛ぶ車を用いて1人の動く人物を形作る。
論文 参考訳(メタデータ) (2020-07-13T12:30:31Z) - Residual Force Control for Agile Human Behavior Imitation and Extended
Motion Synthesis [32.22704734791378]
強化学習は、モーションキャプチャーデータからヒューマノイド制御ポリシーを学習することで、現実的な人間の行動に大きな可能性を示してきた。
バレエダンスのような洗練された人間のスキルを再現することや、複雑な移行を伴う長期的な人間の振る舞いを安定して模倣することは、依然として非常に困難である。
動作空間に外部残留力を加えることでヒューマノイド制御ポリシーを強化する新しいアプローチである残留力制御(RFC)を提案する。
論文 参考訳(メタデータ) (2020-06-12T17:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。