論文の概要: Character Controllers Using Motion VAEs
- arxiv url: http://arxiv.org/abs/2103.14274v1
- Date: Fri, 26 Mar 2021 05:51:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 21:25:27.337493
- Title: Character Controllers Using Motion VAEs
- Title(参考訳): モーションvaesを用いたキャラクタコントローラ
- Authors: Hung Yu Ling and Fabio Zinno and George Cheng and Michiel van de Panne
- Abstract要約: 動きのvaesを用いて,人間の運動のデータ駆動生成モデルを学ぶ。
計画や制御アルゴリズムは、このアクション空間を使って望ましい動きを生成することができる。
- 参考スコア(独自算出の注目度): 9.806910643086045
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental problem in computer animation is that of realizing purposeful
and realistic human movement given a sufficiently-rich set of motion capture
clips. We learn data-driven generative models of human movement using
autoregressive conditional variational autoencoders, or Motion VAEs. The latent
variables of the learned autoencoder define the action space for the movement
and thereby govern its evolution over time. Planning or control algorithms can
then use this action space to generate desired motions. In particular, we use
deep reinforcement learning to learn controllers that achieve goal-directed
movements. We demonstrate the effectiveness of the approach on multiple tasks.
We further evaluate system-design choices and describe the current limitations
of Motion VAEs.
- Abstract(参考訳): コンピュータアニメーションの根本的な問題は、十分にリッチなモーションキャプチャークリップを与えられた目的的で現実的な人間の動きを実現することである。
我々は,自動回帰条件変分オートエンコーダ(Motion VAE)を用いて,人間の動きのデータ駆動生成モデルを学ぶ。
学習されたオートエンコーダの潜伏変数は、運動のアクション空間を定義し、時間とともにその進化を管理する。
計画や制御アルゴリズムは、このアクション空間を使って望ましい動きを生成することができる。
特に,目標指向動作を実現するコントローラを学習するために,深層強化学習を用いる。
複数のタスクにおけるアプローチの有効性を示す。
システム設計の選択を更に評価し,現在の動きvaesの限界について述べる。
関連論文リスト
- Programmable Motion Generation for Open-Set Motion Control Tasks [51.73738359209987]
我々は新しいパラダイム、プログラム可能なモーション生成を導入する。
このパラダイムでは、任意の運動制御タスクは原子制約の組み合わせに分解される。
これらの制約は、運動列がそれに付着する程度を定量化するエラー関数にプログラムされる。
論文 参考訳(メタデータ) (2024-05-29T17:14:55Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Neural Categorical Priors for Physics-Based Character Control [12.731392285646614]
運動の質と多様性を大幅に改善した物理に基づく文字制御のための新しい学習フレームワークを提案する。
提案手法は強化学習(RL)を用いて,非構造的なモーションクリップからのライフライクな動きを追跡し,模倣する。
本研究は,人型文字を用いた総合実験により,下流域の難易度の高い2つの課題,剣のシールドと2人のプレーヤーによるボクシングゲームについて検討する。
論文 参考訳(メタデータ) (2023-08-14T15:10:29Z) - Perpetual Humanoid Control for Real-time Simulated Avatars [77.05287269685911]
本稿では,高忠実度動作模倣と耐故障動作を実現する物理に基づくヒューマノイドコントローラを提案する。
コントローラは、外部の安定化力を使わずに1万本のモーションクリップを学習できる。
実時間およびリアルタイムのマルチパーソンアバター使用事例において,映像ベースのポーズ推定器と言語ベースのモーションジェネレータからノイズのあるポーズを模倣するために,制御器の有効性を実証する。
論文 参考訳(メタデータ) (2023-05-10T20:51:37Z) - CALM: Conditional Adversarial Latent Models for Directable Virtual
Characters [71.66218592749448]
本研究では,ユーザが制御する対話型仮想キャラクタに対して,多種多様かつ指示可能な振る舞いを生成するための条件付き適応潜在モデル(CALM)を提案する。
模倣学習を用いて、CALMは人間の動きの複雑さを捉える動きの表現を学び、キャラクターの動きを直接制御できる。
論文 参考訳(メタデータ) (2023-05-02T09:01:44Z) - Human MotionFormer: Transferring Human Motions with Vision Transformers [73.48118882676276]
人間の動き伝達は、運動合成のためにターゲットの動的人物からソースの静的人物に動きを伝達することを目的としている。
本稿では,世界的および地域的認識を活用して,大規模かつ微妙な動きマッチングを捉える階層型ViTフレームワークであるHuman MotionFormerを提案する。
我々のHuman MotionFormerは、定性的かつ定量的に新しい最先端のパフォーマンスをセットしている。
論文 参考訳(メタデータ) (2023-02-22T11:42:44Z) - Task-Generic Hierarchical Human Motion Prior using VAEs [44.356707509079044]
人間の動きを記述する深い生成モデルは、幅広いコンピュータビジョンやグラフィックタスクに役立てることができる。
本稿では,グローバル・ローカル・ラテント・スペースの組み合わせを用いて,特定のタスクに依存しない複雑な人間の動作を学習する手法を提案する。
映像に基づく人間のポーズ推定を含む様々なタスクにおいて,階層的な動き変動自動エンコーダの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-07T23:11:42Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Self-supervised Motion Learning from Static Images [36.85209332144106]
Motion from Static Images (MoSI) はモーション情報をエンコードすることを学ぶ。
MoSIは、下流のデータセットを微調整することなく、大きな動きを持つ領域を発見することができる。
下流のデータセットを微調整することなく、MoSIが大きな動きを持つ領域を発見できることを実証します。
論文 参考訳(メタデータ) (2021-04-01T03:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。