論文の概要: UniHands: Unifying Various Wild-Collected Keypoints for Personalized Hand Reconstruction
- arxiv url: http://arxiv.org/abs/2411.11845v1
- Date: Mon, 18 Nov 2024 18:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:27:16.267903
- Title: UniHands: Unifying Various Wild-Collected Keypoints for Personalized Hand Reconstruction
- Title(参考訳): UniHands: パーソナライズされたハンドコンストラクションのための様々なワイルドコレクションキーポイントの統合
- Authors: Menghe Zhang, Joonyeoup Kim, Yangwen Liang, Shuangquan Wang, Kee-Bong Song,
- Abstract要約: 標準化されながらパーソナライズされたハンドモデルを作成する新しい方法であるUniHandsを提案する。
既存の暗黙的表現法とは異なり、UniHandsはMANOとNIMBLEを広く採用している。
また、メッシュから統一されたハンドジョイントを導き出し、様々なハンド関連タスクへのシームレスな統合を容易にする。
- 参考スコア(独自算出の注目度): 4.0025708029346445
- License:
- Abstract: Accurate hand motion capture and standardized 3D representation are essential for various hand-related tasks. Collecting keypoints-only data, while efficient and cost-effective, results in low-fidelity representations and lacks surface information. Furthermore, data inconsistencies across sources challenge their integration and use. We present UniHands, a novel method for creating standardized yet personalized hand models from wild-collected keypoints from diverse sources. Unlike existing neural implicit representation methods, UniHands uses the widely-adopted parametric models MANO and NIMBLE, providing a more scalable and versatile solution. It also derives unified hand joints from the meshes, which facilitates seamless integration into various hand-related tasks. Experiments on the FreiHAND and InterHand2.6M datasets demonstrate its ability to precisely reconstruct hand mesh vertices and keypoints, effectively capturing high-degree articulation motions. Empirical studies involving nine participants show a clear preference for our unified joints over existing configurations for accuracy and naturalism (p-value 0.016).
- Abstract(参考訳): 手の動きの正確なキャプチャと標準化された3D表現は、様々な手作業に不可欠である。
キーポイントのみのデータを集めることは効率的で費用対効果があるが、結果として低忠実度表現となり、表面情報に欠ける。
さらに、ソース間のデータ不整合は、統合と使用に挑戦する。
UniHandsは、様々なソースから、ワイルドコンパイルされたキーポイントから標準化されているがパーソナライズされたハンドモデルを作成するための新しい方法である。
既存の暗黙的表現法とは異なり、UniHandsはMANOとNIMBLEを広く採用し、よりスケーラブルで汎用的なソリューションを提供する。
また、メッシュから統一されたハンドジョイントを導き出し、様々なハンド関連タスクへのシームレスな統合を容易にする。
FreiHANDとInterHand2.6Mデータセットの実験は、手メッシュの頂点とキーポイントを正確に再構築し、高次調音運動を効果的に捉える能力を示している。
9人の被験者を巻き込んだ実証研究は、既存の精度と自然主義(p-値0.016。
関連論文リスト
- Learning Interaction-aware 3D Gaussian Splatting for One-shot Hand Avatars [47.61442517627826]
本稿では,3次元ガウススプラッティング(GS)と単一画像入力と手を相互作用するアニマタブルアバターを提案する。
提案手法は大規模なInterHand2.6Mデータセットの広範な実験により検証される。
論文 参考訳(メタデータ) (2024-10-11T14:14:51Z) - Decomposed Vector-Quantized Variational Autoencoder for Human Grasp Generation [27.206656215734295]
本稿では,DVQ-VAE(Decomposed Vector-Quantized Variational Autoencoder)を提案する。
部分認識の分解アーキテクチャは、手とオブジェクトの各コンポーネント間のインタラクションをより正確に管理するのに役立つ。
提案モデルでは,4つのベンチマークにおいて,最先端の手法と比較して,品質指標の14.1%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-07-19T06:41:16Z) - HandDiff: 3D Hand Pose Estimation with Diffusion on Image-Point Cloud [60.47544798202017]
ハンドポーズ推定は、様々な人間とコンピュータの相互作用アプリケーションにおいて重要なタスクである。
本論文は,手形画像点雲上での正確な手ポーズを反復的に認知する拡散型手ポーズ推定モデルであるHandDiffを提案する。
実験の結果,提案したHandDiffは,4つの挑戦的なハンドポーズベンチマークデータセットにおいて,既存のアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-04-04T02:15:16Z) - HandBooster: Boosting 3D Hand-Mesh Reconstruction by Conditional Synthesis and Sampling of Hand-Object Interactions [68.28684509445529]
HandBoosterは、データの多様性を向上し、3Dハンド・ミーシュ・リコンストラクションのパフォーマンスを向上する新しいアプローチである。
まず,多様な手やポーズ,ビュー,背景を持つリアルな画像を生成するために,拡散モデルを誘導する多目的コンテンツ認識条件を構築した。
そこで我々は,我々の類似性を考慮した分布サンプリング戦略に基づく新しい条件作成手法を設計し,トレーニングセットとは異なる,斬新で現実的なインタラクションのポーズを意図的に見つける。
論文 参考訳(メタデータ) (2024-03-27T13:56:08Z) - 3D Hand Reconstruction via Aggregating Intra and Inter Graphs Guided by
Prior Knowledge for Hand-Object Interaction Scenario [8.364378460776832]
モデルベースおよびモデルフリーアプローチの利点を生かした3次元ハンドリコンストラクションネットワークを提案する。
まず,2次元関節から直接のMANOポーズパラメータ回帰モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-04T05:11:26Z) - Interacting Hand-Object Pose Estimation via Dense Mutual Attention [97.26400229871888]
3Dハンドオブジェクトのポーズ推定は多くのコンピュータビジョンアプリケーションの成功の鍵となる。
本研究では,手と物体間の微粒な依存関係をモデル化できる新しい相互注意機構を提案する。
提案手法は,高品質かつリアルタイムな推論速度で,物理的に妥当なポーズを生成できる。
論文 参考訳(メタデータ) (2022-11-16T10:01:33Z) - A Skeleton-Driven Neural Occupancy Representation for Articulated Hands [49.956892429789775]
Hand ArticuLated Occupancy (HALO) は、3Dキーポイントと神経暗黙の面の利点を橋渡しする手話の表現である。
本研究では,3次元物体を把握した手の条件生成作業に対するHALOの適用性を示す。
論文 参考訳(メタデータ) (2021-09-23T14:35:19Z) - HandFoldingNet: A 3D Hand Pose Estimation Network Using
Multiscale-Feature Guided Folding of a 2D Hand Skeleton [4.1954750695245835]
本稿では,高精度かつ効率的なポーズ推定器であるHandFoldingNetを提案する。
提案モデルでは, 折り畳み型デコーダを用いて, 与えられた2次元手骨を対応する関節座標に折り畳む。
実験結果から,提案モデルが既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-08-12T05:52:44Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。