論文の概要: Diverse 3D Hand Gesture Prediction from Body Dynamics by Bilateral Hand
Disentanglement
- arxiv url: http://arxiv.org/abs/2303.01765v1
- Date: Fri, 3 Mar 2023 08:08:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 15:51:30.714974
- Title: Diverse 3D Hand Gesture Prediction from Body Dynamics by Bilateral Hand
Disentanglement
- Title(参考訳): 左右差による身体運動からの多様な3次元ハンドジェスチャ予測
- Authors: Xingqun Qi, Chen Liu, Muyi Sun, Lincheng Li, Changjie Fan, Xin Yu
- Abstract要約: 両手指離断に基づく2段階手指生成手法を提案する。
第1段階では、2つの手振り枝による自然な手振りを生成する。
第2段階は、連続的な身体姿勢を考えると、3Dの手の予測は非決定論的であるべきだという洞察に基づいて構築される。
- 参考スコア(独自算出の注目度): 42.98335775548796
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting natural and diverse 3D hand gestures from the upper body dynamics
is a practical yet challenging task in virtual avatar creation. Previous works
usually overlook the asymmetric motions between two hands and generate two
hands in a holistic manner, leading to unnatural results. In this work, we
introduce a novel bilateral hand disentanglement based two-stage 3D hand
generation method to achieve natural and diverse 3D hand prediction from body
dynamics. In the first stage, we intend to generate natural hand gestures by
two hand-disentanglement branches. Considering the asymmetric gestures and
motions of two hands, we introduce a Spatial-Residual Memory (SRM) module to
model spatial interaction between the body and each hand by residual learning.
To enhance the coordination of two hand motions wrt. body dynamics
holistically, we then present a Temporal-Motion Memory (TMM) module. TMM can
effectively model the temporal association between body dynamics and two hand
motions. The second stage is built upon the insight that 3D hand predictions
should be non-deterministic given the sequential body postures. Thus, we
further diversify our 3D hand predictions based on the initial output from the
stage one. Concretely, we propose a Prototypical-Memory Sampling Strategy (PSS)
to generate the non-deterministic hand gestures by gradient-based Markov Chain
Monte Carlo (MCMC) sampling. Extensive experiments demonstrate that our method
outperforms the state-of-the-art models on the B2H dataset and our newly
collected TED Hands dataset.
- Abstract(参考訳): 上半身のダイナミックスから自然で多様な3Dハンドジェスチャを予測することは、仮想アバター作成において実用的ながら難しい課題である。
それまでの研究は通常、両手の間の非対称な動きを見落とし、総合的な方法で両手を生成する。
本研究では, 身体力学から自然かつ多様な3dハンド予測を実現するために, 2段階の2段階3dハンド生成法を提案する。
第1段階では、2つの手振り枝による自然な手振りを生成する。
両手の非対称な動作や動作を考慮し,身体と手間の空間的相互作用を残留学習によりモデル化する空間-残留記憶(SRM)モジュールを導入する。
2つの手の動きwrtの協調性を高める。
body dynamics は、TMM (Temporal-Motion Memory) モジュールを提供する。
TMMは、身体力学と2つの手の動きの時間的関連を効果的にモデル化することができる。
第2段階は、3dの手の予測は連続的な姿勢を考えると非決定論的であるべきだという洞察に基づいている。
そこで我々は,ステージ1からの初期出力に基づいて,我々の3Dハンド予測をさらに多様化する。
具体的には,グラデーションに基づくマルコフ連鎖モンテカルロ(mcmc)サンプリングによる非決定性ハンドジェスチャを生成するためのプロトティピカルメモリサンプリング戦略(pss)を提案する。
本手法はB2Hデータセットと新たに収集したTED Handsデータセットの最先端モデルよりも優れていることを示す。
関連論文リスト
- HMP: Hand Motion Priors for Pose and Shape Estimation from Video [52.39020275278984]
我々は,多種多様な高品質の手の動きを特徴とするAMASSデータセットに基づいて,手動に特有な生成動作を開発する。
頑健な動きの統合は、特に隠蔽されたシナリオにおいて、パフォーマンスを著しく向上させる。
HO3DおよびDexYCBデータセットの質的および定量的評価により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-12-27T22:35:33Z) - BOTH2Hands: Inferring 3D Hands from Both Text Prompts and Body Dynamics [50.88842027976421]
両手動作生成のための新しいマルチモーダルデータセットBOTH57Mを提案する。
私たちのデータセットには、人体と手の動きの正確な追跡が含まれています。
また,新しいタスクのための強力なベースライン手法であるBOTH2Handsも提供する。
論文 参考訳(メタデータ) (2023-12-13T07:30:19Z) - Generating Holistic 3D Human Motion from Speech [97.11392166257791]
同期音声を用いた3次元全体体メッシュの高品質データセットを構築した。
次に,顔,体,手が別々にモデル化される新しい音声合成フレームワークを定義する。
論文 参考訳(メタデータ) (2022-12-08T17:25:19Z) - A Non-Anatomical Graph Structure for isolated hand gesture separation in
continuous gesture sequences [42.20687552354674]
我々はGCNモデルを提案し、それを積み重ねたBi-LSTMとAttentionモジュールと組み合わせて、ビデオストリームの時間情報をプッシュする。
そこで本研究では,3次元手骨の特徴を増強する2層GCNモデルを提案する。
論文 参考訳(メタデータ) (2022-07-15T17:28:52Z) - Monocular 3D Reconstruction of Interacting Hands via Collision-Aware
Factorized Refinements [96.40125818594952]
単眼のRGB画像から3Dインタラクションハンドを再構築する試みを初めて行った。
提案手法では, 高精度な3次元ポーズと最小の衝突で3次元ハンドメッシュを生成することができる。
論文 参考訳(メタデータ) (2021-11-01T08:24:10Z) - BiHand: Recovering Hand Mesh with Multi-stage Bisected Hourglass
Networks [37.65510556305611]
本稿では,2次元シードステージ,3次元リフトステージ,メッシュ生成ステージの3段階からなる,エンドツーエンドで学習可能なモデルBiHandを紹介する。
BiHandの出力では、ネットワークから予測される関節回転と形状パラメータを用いて全手メッシュを復元する。
本モデルでは,最先端手法と比較して精度が向上し,いくつかの厳しい条件下で魅力的な3Dハンドメッシュを作成できる。
論文 参考訳(メタデータ) (2020-08-12T03:13:17Z) - Body2Hands: Learning to Infer 3D Hands from Conversational Gesture Body
Dynamics [87.17505994436308]
身体の動きと手の動きは、非言語的コミュニケーション設定において強く相関しているという知見に基づいて構築する。
身体の動きのみを入力した場合の3次元手形状の予測タスクとして,この先行学習を定式化する。
本モデルでは,3次元手の動きのみを入力として,手の動きを説得力のある3次元手の動きを生成する。
論文 参考訳(メタデータ) (2020-07-23T22:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。