論文の概要: Accurate 3D Hand Pose Estimation for Whole-Body 3D Human Mesh Estimation
- arxiv url: http://arxiv.org/abs/2011.11534v4
- Date: Tue, 19 Apr 2022 05:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:29:49.601891
- Title: Accurate 3D Hand Pose Estimation for Whole-Body 3D Human Mesh Estimation
- Title(参考訳): 人体3次元メッシュ推定のための高精度3次元ハンドポーズ推定
- Authors: Gyeongsik Moon and Hongsuk Choi and Kyoung Mu Lee
- Abstract要約: 全体3次元メッシュ推定は、3次元の人体、手、顔を同時に再構築することを目的としている。
我々はHand4Wholeを紹介します。
我々のHand4Wholeはエンドツーエンドで訓練されており、これまでの全身の3Dメッシュ推定方法よりもはるかに優れた3Dハンド結果を生成する。
- 参考スコア(独自算出の注目度): 70.23652933572647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole-body 3D human mesh estimation aims to reconstruct the 3D human body,
hands, and face simultaneously. Although several methods have been proposed,
accurate prediction of 3D hands, which consist of 3D wrist and fingers, still
remains challenging due to two reasons. First, the human kinematic chain has
not been carefully considered when predicting the 3D wrists. Second, previous
works utilize body features for the 3D fingers, where the body feature barely
contains finger information. To resolve the limitations, we present Hand4Whole,
which has two strong points over previous works. First, we design Pose2Pose, a
module that utilizes joint features for 3D joint rotations. Using Pose2Pose,
Hand4Whole utilizes hand MCP joint features to predict 3D wrists as MCP joints
largely contribute to 3D wrist rotations in the human kinematic chain. Second,
Hand4Whole discards the body feature when predicting 3D finger rotations. Our
Hand4Whole is trained in an end-to-end manner and produces much better 3D hand
results than previous whole-body 3D human mesh estimation methods. The codes
are available here at https://github.com/mks0601/Hand4Whole_RELEASE.
- Abstract(参考訳): 全身3次元メッシュ推定は、人体、手、顔を同時に再構築することを目的としている。
いくつかの方法が提案されているが、3D手首と指で構成される3Dハンドの正確な予測は2つの理由から依然として困難である。
第一に、ヒトのキネマティック鎖は3D手首を予測する際に慎重に考慮されていない。
第二に、これまでの作品では3D指の身体的特徴を利用していた。
制約を解決するために,前作よりも2つの強点を持つhand4wholeを提案する。
まず,3次元関節回転に関節機能を利用するPose2Poseを設計する。
pose2poseを使用して、hand4wholeは手のmcp関節の特徴を利用して、3d手首を予測する。
第二に、ハンド4は3d指の回転を予測するときに身体の特徴を捨てる。
hand4wholeはエンドツーエンドでトレーニングされ、従来の全身3dメッシュ推定法よりもはるかに優れた3dハンド結果を生成する。
コードはhttps://github.com/mks0601/hand4whole_releaseで入手できる。
関連論文リスト
- Cloth2Body: Generating 3D Human Body Mesh from 2D Clothing [54.29207348918216]
Cloth2Bodyは、入力の部分的な観察と出力の多様性によって引き起こされる新しい課題に対処する必要がある。
本稿では,2次元衣料品画像のポーズと形状によってパラメータ化された3Dボディメッシュを高精度に推定できるエンドツーエンドフレームワークを提案する。
実験結果から示されるように,提案手法は最先端の性能を実現し,自然および多様な3Dボディメッシュを2次元画像から効果的に回収することができる。
論文 参考訳(メタデータ) (2023-09-28T06:18:38Z) - H3WB: Human3.6M 3D WholeBody Dataset and Benchmark [15.472137969924457]
人体全体の3次元ポーズ推定のためのベンチマークを示す。
現在、完全に注釈付きで正確な3Dボディデータセットがないため、ディープネットワークは特定のボディパーツで個別にトレーニングされる。
我々はHuman3.6Mデータセットに全身アノテーションを提供するHuman3.6M 3D WholeBodyデータセットを紹介した。
論文 参考訳(メタデータ) (2022-11-28T19:00:02Z) - Tracking People by Predicting 3D Appearance, Location & Pose [78.97070307547283]
私たちはまず、1つのフレームから3Dまで、堅牢な方法で人々を持ち上げます。
人を追跡すると、時間とともに3Dの観察結果をトラックレット表現で収集する。
これらのモデルを用いて、トラックレットの将来状態を予測します。
論文 参考訳(メタデータ) (2021-12-08T18:57:15Z) - Learning Temporal 3D Human Pose Estimation with Pseudo-Labels [3.0954251281114513]
自己監督型3次元ポーズ推定のための簡易かつ効果的なアプローチを提案する。
我々は、マルチビューカメラシステムの2Dボディポーズ推定を三角測量に頼っている。
提案手法はHuman3.6MとMPI-INF-3DHPベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-14T17:40:45Z) - A Skeleton-Driven Neural Occupancy Representation for Articulated Hands [49.956892429789775]
Hand ArticuLated Occupancy (HALO) は、3Dキーポイントと神経暗黙の面の利点を橋渡しする手話の表現である。
本研究では,3次元物体を把握した手の条件生成作業に対するHALOの適用性を示す。
論文 参考訳(メタデータ) (2021-09-23T14:35:19Z) - We are More than Our Joints: Predicting how 3D Bodies Move [63.34072043909123]
我々は、潜時周波数から動きを生成する新しい変分オートエンコーダを訓練する。
実験の結果,本手法は最先端の3Dボディアニメーションとリアルな3Dボディアニメーションを生成することがわかった。
論文 参考訳(メタデータ) (2020-12-01T16:41:04Z) - Body2Hands: Learning to Infer 3D Hands from Conversational Gesture Body
Dynamics [87.17505994436308]
身体の動きと手の動きは、非言語的コミュニケーション設定において強く相関しているという知見に基づいて構築する。
身体の動きのみを入力した場合の3次元手形状の予測タスクとして,この先行学習を定式化する。
本モデルでは,3次元手の動きのみを入力として,手の動きを説得力のある3次元手の動きを生成する。
論文 参考訳(メタデータ) (2020-07-23T22:58:15Z) - AnimePose: Multi-person 3D pose estimation and animation [9.323689681059504]
動作中の人間の3Dアニメーションは、人体全体に複数のモーショントラッカーを配置して、すべての手足の動きを追跡するため、非常に難しい。
これは時間がかかり、運動センサー付きエキソスケルトンボディスーツの着用が不快になる可能性がある。
深層学習を用いた2次元映像から複数の人物の3次元アニメーションを生成する方法を提案する。
論文 参考訳(メタデータ) (2020-02-06T11:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。