論文の概要: A Skeleton-Driven Neural Occupancy Representation for Articulated Hands
- arxiv url: http://arxiv.org/abs/2109.11399v1
- Date: Thu, 23 Sep 2021 14:35:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:59:02.019615
- Title: A Skeleton-Driven Neural Occupancy Representation for Articulated Hands
- Title(参考訳): 構音手に対する骨格駆動型神経占有表現
- Authors: Korrawe Karunratanakul, Adrian Spurr, Zicong Fan, Otmar Hilliges, Siyu
Tang
- Abstract要約: Hand ArticuLated Occupancy (HALO) は、3Dキーポイントと神経暗黙の面の利点を橋渡しする手話の表現である。
本研究では,3次元物体を把握した手の条件生成作業に対するHALOの適用性を示す。
- 参考スコア(独自算出の注目度): 49.956892429789775
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Hand ArticuLated Occupancy (HALO), a novel representation of
articulated hands that bridges the advantages of 3D keypoints and neural
implicit surfaces and can be used in end-to-end trainable architectures. Unlike
existing statistical parametric hand models (e.g.~MANO), HALO directly
leverages 3D joint skeleton as input and produces a neural occupancy volume
representing the posed hand surface. The key benefits of HALO are (1) it is
driven by 3D key points, which have benefits in terms of accuracy and are
easier to learn for neural networks than the latent hand-model parameters; (2)
it provides a differentiable volumetric occupancy representation of the posed
hand; (3) it can be trained end-to-end, allowing the formulation of losses on
the hand surface that benefit the learning of 3D keypoints. We demonstrate the
applicability of HALO to the task of conditional generation of hands that grasp
3D objects. The differentiable nature of HALO is shown to improve the quality
of the synthesized hands both in terms of physical plausibility and user
preference.
- Abstract(参考訳): 本稿では,3dキーポイントと神経暗示面の利点を橋渡しし,エンドツーエンドのトレーニング可能なアーキテクチャで使用できる手関節占有(halo)について述べる。
既存の統計パラメトリックハンドモデル(例えば~MANO)とは異なり、HALOは直接3D関節骨格を入力として利用し、ポーズした手の表面を表す神経占有量を生成する。
HALOの主な利点は、(1)精度の点で利点があり、潜伏するハンドモデルパラメータよりもニューラルネットワークで学習しやすい3Dキーポイントによって駆動され、(2)ポーズハンドの異なるボリューム占有率表現を提供し、(3)エンドツーエンドでトレーニングでき、3Dキーポイントの学習に役立つ手表面での損失の定式化を可能にする。
3dオブジェクトを把持する手の条件生成タスクにおけるhaloの適用性を示す。
HALOの識別可能な性質は、身体的妥当性とユーザの好みの両方の観点から、合成された手の品質を向上させることが示されている。
関連論文リスト
- Two Hands Are Better Than One: Resolving Hand to Hand Intersections via Occupancy Networks [33.9893684177763]
自己閉塞と指の関節は推定に重大な問題を引き起こす。
我々は、手の体積を連続多様体として表す占有ネットワークを利用する。
我々は,手動交差点の可能性を最小限に抑えるために,交差点損失関数を設計する。
論文 参考訳(メタデータ) (2024-04-08T11:32:26Z) - HMP: Hand Motion Priors for Pose and Shape Estimation from Video [52.39020275278984]
我々は,多種多様な高品質の手の動きを特徴とするAMASSデータセットに基づいて,手動に特有な生成動作を開発する。
頑健な動きの統合は、特に隠蔽されたシナリオにおいて、パフォーマンスを著しく向上させる。
HO3DおよびDexYCBデータセットの質的および定量的評価により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-12-27T22:35:33Z) - LG-Hand: Advancing 3D Hand Pose Estimation with Locally and Globally
Kinematic Knowledge [0.693939291118954]
本稿では3次元手ポーズ推定のための強力な手法であるLG-Handを提案する。
キネマティックな情報が重要な役割を担い、3次元手ポーズ推定の性能に寄与すると主張している。
提案手法は,Person Hand Action Benchmarkデータセット上で有望な結果を得る。
論文 参考訳(メタデータ) (2022-11-06T15:26:32Z) - NIMBLE: A Non-rigid Hand Model with Bones and Muscles [41.19718491215149]
NIMBLEは、欠落鍵成分を含む新しいパラメトリックハンドモデルである。
NIMBLEは、三角形のメッシュとして20の骨、四面体メッシュとして7つの筋肉群、皮膚メッシュからなる。
NIMBLEをモデリング、レンダリング、視覚的推論タスクに適用する。
論文 参考訳(メタデータ) (2022-02-09T15:57:21Z) - Monocular 3D Reconstruction of Interacting Hands via Collision-Aware
Factorized Refinements [96.40125818594952]
単眼のRGB画像から3Dインタラクションハンドを再構築する試みを初めて行った。
提案手法では, 高精度な3次元ポーズと最小の衝突で3次元ハンドメッシュを生成することができる。
論文 参考訳(メタデータ) (2021-11-01T08:24:10Z) - HandFoldingNet: A 3D Hand Pose Estimation Network Using
Multiscale-Feature Guided Folding of a 2D Hand Skeleton [4.1954750695245835]
本稿では,高精度かつ効率的なポーズ推定器であるHandFoldingNetを提案する。
提案モデルでは, 折り畳み型デコーダを用いて, 与えられた2次元手骨を対応する関節座標に折り畳む。
実験結果から,提案モデルが既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-08-12T05:52:44Z) - HandVoxNet++: 3D Hand Shape and Pose Estimation using Voxel-Based Neural
Networks [71.09275975580009]
HandVoxNet++は、完全に教師された方法でトレーニングされた3Dおよびグラフ畳み込みを備えた、ボクセルベースのディープネットワークである。
HandVoxNet++は2つの手形状表現に依存している。1つは手形状の3Dボキセル化グリッドで、メッシュトポロジを保存していない。
我々は、新しいニューラルグラフ畳み込みに基づくメッシュレジストレーション(GCN-MeshReg)または古典的セグメントワイド非リジッド重力法(NRGA++)と、手表面をボキセル化ハンド形状に整列させることにより、両表現の利点を組み合わせる。
論文 参考訳(メタデータ) (2021-07-02T17:59:54Z) - Accurate 3D Hand Pose Estimation for Whole-Body 3D Human Mesh Estimation [70.23652933572647]
全体3次元メッシュ推定は、3次元の人体、手、顔を同時に再構築することを目的としている。
我々はHand4Wholeを紹介します。
我々のHand4Wholeはエンドツーエンドで訓練されており、これまでの全身の3Dメッシュ推定方法よりもはるかに優れた3Dハンド結果を生成する。
論文 参考訳(メタデータ) (2020-11-23T16:48:35Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - Grasping Field: Learning Implicit Representations for Human Grasps [16.841780141055505]
本稿では,深層ニューラルネットワークと統合し易い人間の把握モデリングのための表現表現を提案する。
この3Dから2DマッピングをGrasping Fieldと呼び、ディープニューラルネットワークでパラメータ化し、データから学習します。
我々の生成モデルは、3Dオブジェクトポイント・クラウドにのみ適用され、高品質な人間のグリップを合成することができる。
論文 参考訳(メタデータ) (2020-08-10T23:08:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。