論文の概要: UniCon: Universal Neural Controller For Physics-based Character Motion
- arxiv url: http://arxiv.org/abs/2011.15119v1
- Date: Mon, 30 Nov 2020 18:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:53:17.859919
- Title: UniCon: Universal Neural Controller For Physics-based Character Motion
- Title(参考訳): UniCon:物理ベースのキャラクターモーションのためのユニバーサルニューラルコントローラ
- Authors: Tingwu Wang, Yunrong Guo, Maria Shugrina, Sanja Fidler
- Abstract要約: 大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
- 参考スコア(独自算出の注目度): 70.45421551688332
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The field of physics-based animation is gaining importance due to the
increasing demand for realism in video games and films, and has recently seen
wide adoption of data-driven techniques, such as deep reinforcement learning
(RL), which learn control from (human) demonstrations. While RL has shown
impressive results at reproducing individual motions and interactive
locomotion, existing methods are limited in their ability to generalize to new
motions and their ability to compose a complex motion sequence interactively.
In this paper, we propose a physics-based universal neural controller (UniCon)
that learns to master thousands of motions with different styles by learning on
large-scale motion datasets. UniCon is a two-level framework that consists of a
high-level motion scheduler and an RL-powered low-level motion executor, which
is our key innovation. By systematically analyzing existing multi-motion RL
frameworks, we introduce a novel objective function and training techniques
which make a significant leap in performance. Once trained, our motion executor
can be combined with different high-level schedulers without the need for
retraining, enabling a variety of real-time interactive applications. We show
that UniCon can support keyboard-driven control, compose motion sequences drawn
from a large pool of locomotion and acrobatics skills and teleport a person
captured on video to a physics-based virtual avatar. Numerical and qualitative
results demonstrate a significant improvement in efficiency, robustness and
generalizability of UniCon over prior state-of-the-art, showcasing
transferability to unseen motions, unseen humanoid models and unseen
perturbation.
- Abstract(参考訳): 物理学に基づくアニメーションの分野は、ビデオゲームや映画におけるリアリズムの需要の増加により重要性を増しており、最近では(人間の)デモンストレーションからコントロールを学ぶdeep reinforcement learning(rl)のようなデータ駆動技術が広く採用されている。
rlは個々の動きと対話的なロコモーションを再現する素晴らしい結果を示しているが、既存の方法は、新しい動きに一般化する能力と複雑な動き列を対話的に構成する能力に制限がある。
本稿では,大規模動作データセットから学習することで,異なるスタイルの何千もの動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
uniconは2段階のフレームワークで、高レベルモーションスケジューラとrlによる低レベルモーションエグゼキュータで構成されています。
既存のマルチモーションRLフレームワークを体系的に解析することにより,性能を飛躍的に向上させる新たな目標関数とトレーニング手法を導入する。
トレーニングが完了すると、モーションエグゼキュータをさまざまなハイレベルスケジューラと組み合わせることができ、さまざまなリアルタイムインタラクティブアプリケーションを可能にする。
我々は,UniConがキーボード駆動制御をサポートし,ロコモーションとアクロバティックスキルの大きなプールから引き出された動作シーケンスを合成し,ビデオで撮影した人物を物理ベースの仮想アバターにテレポートできることを示す。
数値的および定性的な結果から、UniConの効率性、堅牢性、一般化性は、先進的、目視不可能な動き、目視不可能なヒューマノイドモデル、目視的摂動に対して顕著に向上した。
関連論文リスト
- Sitcom-Crafter: A Plot-Driven Human Motion Generation System in 3D Scenes [83.55301458112672]
Sitcom-Crafterは3D空間における人間のモーション生成システムである。
機能生成モジュールの中心は、我々の新しい3Dシーン対応ヒューマン・ヒューマン・インタラクションモジュールである。
拡張モジュールは、コマンド生成のためのプロット理解、異なるモーションタイプのシームレスな統合のためのモーション同期を含む。
論文 参考訳(メタデータ) (2024-10-14T17:56:19Z) - SuperPADL: Scaling Language-Directed Physics-Based Control with Progressive Supervised Distillation [55.47473138423572]
物理ベースのテキスト・トゥ・モーションのためのスケーラブルなフレームワークであるSuperPADLを紹介する。
SuperPADLは、RLと教師あり学習を使って、何千もの多様なモーションクリップでコントローラを訓練する。
コントローラは5000以上のスキルを含むデータセットでトレーニングされ、コンシューマGPU上でリアルタイムに動作します。
論文 参考訳(メタデータ) (2024-07-15T07:07:11Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - MoConVQ: Unified Physics-Based Motion Control via Scalable Discrete
Representations [25.630268570049708]
MoConVQは、スケーラブルな離散表現を活用する物理ベースのモーションコントロールのための新しい統合フレームワークである。
提案手法は,数十時間の動作例にまたがる大規模非構造データセットから,効果的に動作埋め込みを学習する。
論文 参考訳(メタデータ) (2023-10-16T09:09:02Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - DROP: Dynamics Responses from Human Motion Prior and Projective Dynamics [21.00283279991885]
DROPは、生成的mOtionと射影力学を用いた人間のダイナミクス応答をモデリングするための新しいフレームワークである。
様々な動作タスクや様々な物理的摂動にまたがってモデルを広範囲に評価し、応答のスケーラビリティと多様性を実証する。
論文 参考訳(メタデータ) (2023-09-24T20:25:59Z) - Human MotionFormer: Transferring Human Motions with Vision Transformers [73.48118882676276]
人間の動き伝達は、運動合成のためにターゲットの動的人物からソースの静的人物に動きを伝達することを目的としている。
本稿では,世界的および地域的認識を活用して,大規模かつ微妙な動きマッチングを捉える階層型ViTフレームワークであるHuman MotionFormerを提案する。
我々のHuman MotionFormerは、定性的かつ定量的に新しい最先端のパフォーマンスをセットしている。
論文 参考訳(メタデータ) (2023-02-22T11:42:44Z) - Advanced Skills through Multiple Adversarial Motion Priors in
Reinforcement Learning [10.445369597014533]
本稿では, 対向運動に基づく強化学習の概念を強化するためのアプローチを提案する。
複数のスタイルやスキルを,顕著なパフォーマンスの違いを伴わずに同時に学習できることが示される。
本手法は車輪付き四脚ロボットを用いた実世界実験で実証された。
論文 参考訳(メタデータ) (2022-03-23T09:24:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。