論文の概要: Local and Global Point Cloud Reconstruction for 3D Hand Pose Estimation
- arxiv url: http://arxiv.org/abs/2112.06389v1
- Date: Mon, 13 Dec 2021 02:56:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 15:10:56.281590
- Title: Local and Global Point Cloud Reconstruction for 3D Hand Pose Estimation
- Title(参考訳): 3次元ポーズ推定のための局所的および大域的ポイントクラウド再構成
- Authors: Ziwei Yu, Linlin Yang, Shicheng Chen, Angela Yao
- Abstract要約: 3Dハンドテンプレートを用いた局所的および大域的クラウド再構築のための新しいパイプラインを提案する。
提案手法は,現実的な3次元ハンドポイント・クラウドを再構築しながら,3次元ポーズ推定において競合他社よりも優れる。
- 参考スコア(独自算出の注目度): 27.714604394934184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the 3D point cloud reconstruction and 3D pose estimation
of the human hand from a single RGB image. To that end, we present a novel
pipeline for local and global point cloud reconstruction using a 3D hand
template while learning a latent representation for pose estimation. To
demonstrate our method, we introduce a new multi-view hand posture dataset to
obtain complete 3D point clouds of the hand in the real world. Experiments on
our newly proposed dataset and four public benchmarks demonstrate the model's
strengths. Our method outperforms competitors in 3D pose estimation while
reconstructing realistic-looking complete 3D hand point clouds.
- Abstract(参考訳): 本稿では、1枚のRGB画像から3次元点雲再構成と3次元ポーズ推定について述べる。
そこで我々は,ポーズ推定のための潜在表現を学習しながら,3Dハンドテンプレートを用いた局所的および大域的クラウド再構築のための新しいパイプラインを提案する。
本手法を実証するために,実世界における手の完全な3次元点雲を得るための多視点手姿勢データセットを提案する。
提案するデータセットと4つの公開ベンチマークによる実験により,モデルの強みが示された。
本手法は,現実的に見える完全3次元ハンドポイントクラウドを再構築しながら,3次元ポーズ推定における競合相手よりも優れる。
関連論文リスト
- Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - gSDF: Geometry-Driven Signed Distance Functions for 3D Hand-Object
Reconstruction [94.46581592405066]
我々は手の構造を利用してSDFによる形状復元の指導を行う。
我々は、ポーズ変換のキネマティック連鎖を予測し、SDFを高調波ハンドポーズと整列させる。
論文 参考訳(メタデータ) (2023-04-24T10:05:48Z) - Consistent 3D Hand Reconstruction in Video via self-supervised Learning [67.55449194046996]
本稿では,モノクロ映像から高精度で一貫した3Dハンドを再構築する手法を提案する。
検出された2次元手指キーポイントと画像テクスチャは、3次元手の形状とテクスチャに関する重要な手がかりを提供する。
自己監督型3Dハンド再構成モデルであるS2HAND$を提案する。
論文 参考訳(メタデータ) (2022-01-24T09:44:11Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - Residual Pose: A Decoupled Approach for Depth-based 3D Human Pose
Estimation [18.103595280706593]
我々は,CNNによる信頼度の高い2次元ポーズ推定の最近の進歩を活用し,深度画像から人物の3次元ポーズを推定する。
提案手法は2つの公開データセットの精度と速度の両面で非常に競争力のある結果が得られる。
論文 参考訳(メタデータ) (2020-11-10T10:08:13Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - Two-hand Global 3D Pose Estimation Using Monocular RGB [0.0]
我々は、単眼のRGB入力画像のみを用いて、両手のグローバルな3D関節位置を推定する難しい課題に取り組む。
本稿では,手の位置を正確に把握する多段階畳み込みニューラルネットワークに基づくパイプラインを提案する。
RGBのみの入力を用いて両手の3Dハンドトラッキングを高精度に行う。
論文 参考訳(メタデータ) (2020-06-01T23:53:52Z) - HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose
Estimation from a Single Depth Map [72.93634777578336]
弱教師付き方式で3次元畳み込みを訓練した新しいアーキテクチャを提案する。
提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。
我々の手法は、NYUとBigHand2.2Mデータセットで視覚的により合理的で現実的な手形を生成する。
論文 参考訳(メタデータ) (2020-04-03T14:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。