論文の概要: A Hierarchy-Aware Pose Representation for Deep Character Animation
- arxiv url: http://arxiv.org/abs/2111.13907v1
- Date: Sat, 27 Nov 2021 14:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 10:22:46.466869
- Title: A Hierarchy-Aware Pose Representation for Deep Character Animation
- Title(参考訳): ディープキャラクタアニメーションのための階層認識ポーズ表現
- Authors: Nefeli Andreou, Andreas Lazarou, Andreas Aristidou, Yiorgos
Chrysanthou
- Abstract要約: 深層キャラクタアニメーションに適した動きモデリングのための頑健なポーズ表現を提案する。
我々の表現は、回転方向と位置方向を同時にエンコードする、よく定義された演算を持つ数学的抽象化である二重四元数に基づいている。
我々の表現は共通の動きを克服し、他の一般的な表現と比較してその性能を評価する。
- 参考スコア(独自算出の注目度): 2.47343886645587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven character animation techniques rely on the existence of a
properly established model of motion, capable of describing its rich context.
However, commonly used motion representations often fail to accurately encode
the full articulation of motion, or present artifacts. In this work, we address
the fundamental problem of finding a robust pose representation for motion
modeling, suitable for deep character animation, one that can better constrain
poses and faithfully capture nuances correlated with skeletal characteristics.
Our representation is based on dual quaternions, the mathematical abstractions
with well-defined operations, which simultaneously encode rotational and
positional orientation, enabling a hierarchy-aware encoding, centered around
the root. We demonstrate that our representation overcomes common motion
artifacts, and assess its performance compared to other popular
representations. We conduct an ablation study to evaluate the impact of various
losses that can be incorporated during learning. Leveraging the fact that our
representation implicitly encodes skeletal motion attributes, we train a
network on a dataset comprising of skeletons with different proportions,
without the need to retarget them first to a universal skeleton, which causes
subtle motion elements to be missed. We show that smooth and natural poses can
be achieved, paving the way for fascinating applications.
- Abstract(参考訳): データ駆動のキャラクターアニメーション技術は、そのリッチなコンテキストを記述することができる、適切に確立された動きモデルの存在に依存している。
しかし、一般的に使われる動き表現は、運動の完全な調音や現在あるアーティファクトを正確にエンコードできないことが多い。
本研究では,深部キャラクタアニメーションに適した動きモデリングのためのロバストなポーズ表現を見出すという基本的な問題に対処し,ポーズを制約し,骨格特性に関連付けられたニュアンスを忠実に捉えた。
我々の表現は、回転方向と位置方向を同時にエンコードし、ルートを中心とした階層認識エンコーディングを可能にする、明確に定義された操作を持つ数学的抽象化である双四元数に基づいている。
我々の表現は共通の動きを克服し、他の一般的な表現と比較してその性能を評価する。
我々は,学習中に取り入れられる様々な損失の影響を評価するためのアブレーション研究を行っている。
我々の表現が骨格の運動特性を暗黙的に符号化しているという事実を活用して、我々は異なる比率の骨格からなるデータセット上でネットワークを訓練する。
滑らかで自然なポーズが実現できることを示し、魅力的なアプリケーションへの道を開く。
関連論文リスト
- Pose-to-Motion: Cross-Domain Motion Retargeting with Pose Prior [48.104051952928465]
現在の学習に基づく動き合成法は、広範囲な動きデータセットに依存する。
ポーズデータは作成が容易で、画像から抽出することもできるため、よりアクセスしやすい。
提案手法は,他のキャラクタの既存のモーションキャプチャーデータセットから動きを転送することで,データのみをポーズするキャラクタに対する可塑性モーションを生成する。
論文 参考訳(メタデータ) (2023-10-31T08:13:00Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - PoseVocab: Learning Joint-structured Pose Embeddings for Human Avatar
Modeling [30.93155530590843]
提案するPoseVocabは,高忠実度人間の細部をエンコードできる新しいポーズ符号化手法である。
キャラクターのマルチビューRGBビデオが与えられた後、PoseVocabはトレーニングポーズに基づいてキーポーズと潜在埋め込みを構築する。
実験により,本手法は他の最先端のベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-04-25T17:25:36Z) - Object Discovery from Motion-Guided Tokens [50.988525184497334]
自動エンコーダ表現学習フレームワークを、モーションガイダンスと中間レベルの特徴トークン化により強化する。
我々のアプローチは、解釈可能なオブジェクト固有の中間レベルの特徴の出現を可能にする。
論文 参考訳(メタデータ) (2023-03-27T19:14:00Z) - Mutual Information-Based Temporal Difference Learning for Human Pose
Estimation in Video [16.32910684198013]
本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
論文 参考訳(メタデータ) (2023-03-15T09:29:03Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Exploring Motion and Appearance Information for Temporal Sentence
Grounding [52.01687915910648]
本研究では、時間的文のグラウンド化を解決するために、MARN(Motion-Appearance Reasoning Network)を提案する。
動作誘導と外見誘導のオブジェクト関係を学習するために,動作分岐と外見分岐を別々に開発する。
提案するMARNは,従来の最先端手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-01-03T02:44:18Z) - Render In-between: Motion Guided Video Synthesis for Action
Interpolation [53.43607872972194]
本研究では、リアルな人間の動きと外観を生成できる動き誘導型フレームアップサンプリングフレームワークを提案する。
大規模モーションキャプチャーデータセットを活用することにより、フレーム間の非線形骨格運動を推定するために、新しいモーションモデルが訓練される。
私たちのパイプラインでは、低フレームレートのビデオと不自由な人間のモーションデータしか必要としませんが、トレーニングには高フレームレートのビデオは必要ありません。
論文 参考訳(メタデータ) (2021-11-01T15:32:51Z) - Task-Generic Hierarchical Human Motion Prior using VAEs [44.356707509079044]
人間の動きを記述する深い生成モデルは、幅広いコンピュータビジョンやグラフィックタスクに役立てることができる。
本稿では,グローバル・ローカル・ラテント・スペースの組み合わせを用いて,特定のタスクに依存しない複雑な人間の動作を学習する手法を提案する。
映像に基づく人間のポーズ推定を含む様々なタスクにおいて,階層的な動き変動自動エンコーダの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-07T23:11:42Z) - Motion Representations for Articulated Animation [34.54825980226596]
異なる部分からなる関節オブジェクトをアニメーション化するための新しいモーション表現を提案する。
完全に教師なしの方法で、本手法は対象部品を識別し、駆動ビデオで追跡し、主軸を考慮して動きを推定する。
我々のモデルは様々なオブジェクトをアニメートすることができ、既存のベンチマークでは従来のメソッドを大きく上回っています。
論文 参考訳(メタデータ) (2021-04-22T18:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。