論文の概要: HandFoldingNet: A 3D Hand Pose Estimation Network Using
Multiscale-Feature Guided Folding of a 2D Hand Skeleton
- arxiv url: http://arxiv.org/abs/2108.05545v1
- Date: Thu, 12 Aug 2021 05:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:36:29.199721
- Title: HandFoldingNet: A 3D Hand Pose Estimation Network Using
Multiscale-Feature Guided Folding of a 2D Hand Skeleton
- Title(参考訳): HandFoldingNet: 2次元ハンド骨格のマルチスケールガイド型フォルダリングを用いた3次元ハンドポース推定ネットワーク
- Authors: Wencan Cheng, Jae Hyun Park and Jong Hwan Ko
- Abstract要約: 本稿では,高精度かつ効率的なポーズ推定器であるHandFoldingNetを提案する。
提案モデルでは, 折り畳み型デコーダを用いて, 与えられた2次元手骨を対応する関節座標に折り畳む。
実験結果から,提案モデルが既存の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 4.1954750695245835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With increasing applications of 3D hand pose estimation in various
human-computer interaction applications, convolution neural networks (CNNs)
based estimation models have been actively explored. However, the existing
models require complex architectures or redundant computational resources to
trade with the acceptable accuracy. To tackle this limitation, this paper
proposes HandFoldingNet, an accurate and efficient hand pose estimator that
regresses the hand joint locations from the normalized 3D hand point cloud
input. The proposed model utilizes a folding-based decoder that folds a given
2D hand skeleton into the corresponding joint coordinates. For higher
estimation accuracy, folding is guided by multi-scale features, which include
both global and joint-wise local features. Experimental results show that the
proposed model outperforms the existing methods on three hand pose benchmark
datasets with the lowest model parameter requirement. Code is available at
https://github.com/cwc1260/HandFold.
- Abstract(参考訳): 人-コンピュータインタラクションアプリケーションにおける3Dハンドポーズ推定の適用の増大に伴い、畳み込みニューラルネットワーク(CNN)に基づく推定モデルが積極的に研究されている。
しかし、既存のモデルは許容できる精度と引き換えに複雑なアーキテクチャや冗長な計算資源を必要とする。
この制限に対処するため,本論文では,通常の3Dハンドポイントクラウド入力から手関節位置を復元する高精度かつ効率的な手ポーズ推定器であるHandFoldingNetを提案する。
提案モデルは、与えられた2dハンドスケルトンを対応するジョイント座標に折り畳む折り畳み式デコーダを用いる。
高い推定精度を得るために、折り畳みはグローバルな特徴とジョイントワイドな特徴の両方を含むマルチスケールの特徴によって導かれる。
実験結果から,提案モデルでは,3つの手振りベンチマークデータセットにおいて,最低パラメータ条件で既存手法よりも優れた性能を示した。
コードはhttps://github.com/cwc1260/handfoldで入手できる。
関連論文リスト
- WiLoR: End-to-end 3D Hand Localization and Reconstruction in-the-wild [53.288327629960364]
野生における効率的なマルチハンド再構築のためのデータ駆動パイプラインを提案する。
提案するパイプラインは、リアルタイム完全畳み込みハンドローカライゼーションと、高忠実度トランスフォーマーに基づく3Dハンド再構成モデルという2つのコンポーネントで構成されている。
提案手法は, 一般的な2次元および3次元のベンチマークにおいて, 効率と精度の両方において, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-18T18:46:51Z) - Two Hands Are Better Than One: Resolving Hand to Hand Intersections via Occupancy Networks [33.9893684177763]
自己閉塞と指の関節は推定に重大な問題を引き起こす。
我々は、手の体積を連続多様体として表す占有ネットワークを利用する。
我々は,手動交差点の可能性を最小限に抑えるために,交差点損失関数を設計する。
論文 参考訳(メタデータ) (2024-04-08T11:32:26Z) - HandDiff: 3D Hand Pose Estimation with Diffusion on Image-Point Cloud [60.47544798202017]
ハンドポーズ推定は、様々な人間とコンピュータの相互作用アプリケーションにおいて重要なタスクである。
本論文は,手形画像点雲上での正確な手ポーズを反復的に認知する拡散型手ポーズ推定モデルであるHandDiffを提案する。
実験の結果,提案したHandDiffは,4つの挑戦的なハンドポーズベンチマークデータセットにおいて,既存のアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-04-04T02:15:16Z) - HandNeRF: Neural Radiance Fields for Animatable Interacting Hands [122.32855646927013]
神経放射場(NeRF)を用いて手の動きを正確に再現する新しい枠組みを提案する。
我々は,提案するHandNeRFのメリットを検証するための広範囲な実験を行い,その成果を報告する。
論文 参考訳(メタデータ) (2023-03-24T06:19:19Z) - End-to-end Weakly-supervised Single-stage Multiple 3D Hand Mesh
Reconstruction from a Single RGB Image [9.238322841389994]
複数手再構成のための単一段パイプラインを提案する。
具体的には,複数ヘッドのオートエンコーダ構造を設計し,各ヘッドネットワークが同じ特徴マップを共有し,ハンドセンター,ポーズ,テクスチャを出力する。
本手法は,弱教師付き手法と完全教師付き手法の両方において,最先端のモデルベース手法よりも優れる。
論文 参考訳(メタデータ) (2022-04-18T03:57:14Z) - A Skeleton-Driven Neural Occupancy Representation for Articulated Hands [49.956892429789775]
Hand ArticuLated Occupancy (HALO) は、3Dキーポイントと神経暗黙の面の利点を橋渡しする手話の表現である。
本研究では,3次元物体を把握した手の条件生成作業に対するHALOの適用性を示す。
論文 参考訳(メタデータ) (2021-09-23T14:35:19Z) - HandVoxNet++: 3D Hand Shape and Pose Estimation using Voxel-Based Neural
Networks [71.09275975580009]
HandVoxNet++は、完全に教師された方法でトレーニングされた3Dおよびグラフ畳み込みを備えた、ボクセルベースのディープネットワークである。
HandVoxNet++は2つの手形状表現に依存している。1つは手形状の3Dボキセル化グリッドで、メッシュトポロジを保存していない。
我々は、新しいニューラルグラフ畳み込みに基づくメッシュレジストレーション(GCN-MeshReg)または古典的セグメントワイド非リジッド重力法(NRGA++)と、手表面をボキセル化ハンド形状に整列させることにより、両表現の利点を組み合わせる。
論文 参考訳(メタデータ) (2021-07-02T17:59:54Z) - A hybrid classification-regression approach for 3D hand pose estimation
using graph convolutional networks [1.0152838128195467]
目的ごとの関係制約を学習する2段階のGCNベースのフレームワークを提案する。
第1フェーズは2D/3D空間を量子化し、その局所性に基づいて関節を2D/3Dブロックに分類する。
第2段階ではGCNベースのモジュールを使用し、隣り合う適応アルゴリズムを用いて関節関係を決定する。
論文 参考訳(メタデータ) (2021-05-23T10:09:10Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - Two-hand Global 3D Pose Estimation Using Monocular RGB [0.0]
我々は、単眼のRGB入力画像のみを用いて、両手のグローバルな3D関節位置を推定する難しい課題に取り組む。
本稿では,手の位置を正確に把握する多段階畳み込みニューラルネットワークに基づくパイプラインを提案する。
RGBのみの入力を用いて両手の3Dハンドトラッキングを高精度に行う。
論文 参考訳(メタデータ) (2020-06-01T23:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。