論文の概要: Hierarchical Neural Implicit Pose Network for Animation and Motion
Retargeting
- arxiv url: http://arxiv.org/abs/2112.00958v1
- Date: Thu, 2 Dec 2021 03:25:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:02:24.128558
- Title: Hierarchical Neural Implicit Pose Network for Animation and Motion
Retargeting
- Title(参考訳): アニメーションとモーションリターゲティングのための階層型ニューラルインシシットポーズネットワーク
- Authors: Sourav Biswas, Kangxue Yin, Maria Shugrina, Sanja Fidler, Sameh Khamis
- Abstract要約: HIPNetは、複数のポーズで訓練された暗黙のポーズネットワークである。
階層的な骨格に基づく表現を用いて、正準非正則空間上の符号付き距離関数を学習する。
種々の単目的および多目的のベンチマークで最先端の結果を得る。
- 参考スコア(独自算出の注目度): 66.69067601079706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HIPNet, a neural implicit pose network trained on multiple
subjects across many poses. HIPNet can disentangle subject-specific details
from pose-specific details, effectively enabling us to retarget motion from one
subject to another or to animate between keyframes through latent space
interpolation. To this end, we employ a hierarchical skeleton-based
representation to learn a signed distance function on a canonical unposed
space. This joint-based decomposition enables us to represent subtle details
that are local to the space around the body joint. Unlike previous neural
implicit method that requires ground-truth SDF for training, our model we only
need a posed skeleton and the point cloud for training, and we have no
dependency on a traditional parametric model or traditional skinning
approaches. We achieve state-of-the-art results on various single-subject and
multi-subject benchmarks.
- Abstract(参考訳): 提案するHIPNetは,複数のポーズで訓練されたニューラル暗黙のポーズネットワークである。
HIPNetは、ポーズ特化の詳細から被写体固有の詳細を切り離すことができ、ある被写体から別の被写体への動きを再ターゲティングしたり、潜在空間補間によってキーフレーム間でアニメーション化することができる。
この目的のために, 階層的スケルトンベース表現を用いて, 正準不定空間上の符号付き距離関数を学習する。
この関節による分解により, 関節周囲の空間に局所的な微妙な詳細を表現できる。
トレーニングに地味なSDFを必要とする従来のニューラル暗黙法とは異なり、私たちのモデルは、トレーニングにポーズされた骨格とポイントクラウドしか必要とせず、従来のパラメトリックモデルや従来のスキンニングアプローチに依存していません。
種々の単目的および多目的のベンチマークで最先端の結果を得る。
関連論文リスト
- Improving Video Violence Recognition with Human Interaction Learning on
3D Skeleton Point Clouds [88.87985219999764]
我々は骨格点の新たな視点からビデオ暴力認識法を開発した。
まず、ビデオから抽出した人間の配列から3Dスケルトン点雲を定式化する。
そして、これらの3Dスケルトン点雲上で相互作用学習を行う。
論文 参考訳(メタデータ) (2023-08-26T12:55:18Z) - Pose Modulated Avatars from Video [22.395774558845336]
周波数領域において適応的かつ明示的な2分岐ニューラルネットワークを開発する。
最初のブランチは、体の部分間の相関を局所的にモデル化するグラフニューラルネットワークである。
第2のブランチは、これらの相関特徴を大域周波数のセットと組み合わせて、特徴符号化を変調する。
論文 参考訳(メタデータ) (2023-08-23T06:49:07Z) - Pose-aware Attention Network for Flexible Motion Retargeting by Body
Part [17.637846838499737]
モーションはコンピュータグラフィックスとコンピュータビジョンの基本的な問題である。
既存のアプローチには、通常多くの厳格な要件がある。
本稿では,新しいフレキシブル・モーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-13T08:49:29Z) - PoseVocab: Learning Joint-structured Pose Embeddings for Human Avatar
Modeling [30.93155530590843]
提案するPoseVocabは,高忠実度人間の細部をエンコードできる新しいポーズ符号化手法である。
キャラクターのマルチビューRGBビデオが与えられた後、PoseVocabはトレーニングポーズに基づいてキーポーズと潜在埋め込みを構築する。
実験により,本手法は他の最先端のベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-04-25T17:25:36Z) - HandNeRF: Neural Radiance Fields for Animatable Interacting Hands [122.32855646927013]
神経放射場(NeRF)を用いて手の動きを正確に再現する新しい枠組みを提案する。
我々は,提案するHandNeRFのメリットを検証するための広範囲な実験を行い,その成果を報告する。
論文 参考訳(メタデータ) (2023-03-24T06:19:19Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - Learning Skeletal Articulations with Neural Blend Shapes [57.879030623284216]
あらかじめ定義された骨格構造を有するエンベロープを用いて3次元文字を表現できるニューラルテクニックを開発している。
我々のフレームワークは、同じ調音構造を持つリグとスキンキャラクタを学習する。
関節領域の変形品質を向上させるニューラルブレンディング形状を提案します。
論文 参考訳(メタデータ) (2021-05-06T05:58:13Z) - Skeleton-Aware Networks for Deep Motion Retargeting [83.65593033474384]
骨格間のデータ駆動動作のための新しいディープラーニングフレームワークを提案する。
我々の手法は、トレーニングセットの運動間の明確なペアリングを必要とせずに、再ターゲティングの仕方を学ぶ。
論文 参考訳(メタデータ) (2020-05-12T12:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。