論文の概要: Efficient Virtual View Selection for 3D Hand Pose Estimation
- arxiv url: http://arxiv.org/abs/2203.15458v1
- Date: Tue, 29 Mar 2022 11:57:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:04:04.559853
- Title: Efficient Virtual View Selection for 3D Hand Pose Estimation
- Title(参考訳): 3次元ハンドポース推定のための高能率仮想視点選択
- Authors: Jian Cheng, Yanguang Wan, Dexin Zuo, Cuixia Ma, Jian Gu, Ping Tan,
Hongan Wang, Xiaoming Deng, Yinda Zhang
- Abstract要約: 単一深度からの3次元手ポーズ推定のための仮想ビュー選択と融合モジュールを提案する。
提案する仮想ビュー選択と融合モジュールはどちらも3次元手ポーズ推定に有効である。
- 参考スコア(独自算出の注目度): 50.93751374572656
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D hand pose estimation from single depth is a fundamental problem in
computer vision, and has wide applications.However, the existing methods still
can not achieve satisfactory hand pose estimation results due to view variation
and occlusion of human hand. In this paper, we propose a new virtual view
selection and fusion module for 3D hand pose estimation from single depth.We
propose to automatically select multiple virtual viewpoints for pose estimation
and fuse the results of all and find this empirically delivers accurate and
robust pose estimation. In order to select most effective virtual views for
pose fusion, we evaluate the virtual views based on the confidence of virtual
views using a light-weight network via network distillation. Experiments on
three main benchmark datasets including NYU, ICVL and Hands2019 demonstrate
that our method outperforms the state-of-the-arts on NYU and ICVL, and achieves
very competitive performance on Hands2019-Task1, and our proposed virtual view
selection and fusion module is both effective for 3D hand pose estimation.
- Abstract(参考訳): 単一深度からの3次元手ポーズ推定はコンピュータビジョンの基本的問題であり,幅広い応用が期待できるが,人間の手の視差や閉塞による手ポーズ推定は相変わらず達成できない。
本稿では,1次元深度から3次元ハンドポーズ推定のための仮想ビュー選択と融合モジュールを提案する。このモジュールは,複数の仮想ビューを自動的に選択してポーズ推定を行い,すべての結果を融合することで,精度とロバストなポーズ推定を実現する。
ポーズ融合のための最も効果的な仮想ビューを選択するために,ネットワーク蒸留による軽量ネットワークを用いた仮想ビューの信頼性に基づいて仮想ビューを評価する。
提案手法は, NYU, ICVL, Hands2019の3つの主要なベンチマークデータセットにおいて, 提案手法がNYU, ICVLの最先端よりも優れており, Hands2019-Task1での非常に競争的な性能を実現していることを示す。
関連論文リスト
- HandDiff: 3D Hand Pose Estimation with Diffusion on Image-Point Cloud [60.47544798202017]
ハンドポーズ推定は、様々な人間とコンピュータの相互作用アプリケーションにおいて重要なタスクである。
本論文は,手形画像点雲上での正確な手ポーズを反復的に認知する拡散型手ポーズ推定モデルであるHandDiffを提案する。
実験の結果,提案したHandDiffは,4つの挑戦的なハンドポーズベンチマークデータセットにおいて,既存のアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-04-04T02:15:16Z) - 1st Place Solution of Egocentric 3D Hand Pose Estimation Challenge 2023
Technical Report:A Concise Pipeline for Egocentric Hand Pose Reconstruction [11.551318550321938]
AssemblyHandsを使って、この課題は、単視点画像からエゴセントリックな3D手ポーズの推定に焦点を当てる。
ViTベースのバックボーンと、強力なモデルベースラインを提供する3Dキーポイント予測のためのシンプルな回帰器を採用しています。
提案手法は,テストデータセット上で12.21mmMPJPEを達成し,Egocentric 3D Hand Pose Estimation において第1位を獲得した。
論文 参考訳(メタデータ) (2023-10-07T10:25:50Z) - TriHorn-Net: A Model for Accurate Depth-Based 3D Hand Pose Estimation [8.946655323517092]
TriHorn-Netは、ディープイメージのポーズ推定精度を改善するために、特定のイノベーションを使用する新しいモデルである。
第1の革新は、深度画像空間における2次元関節位置推定への3次元手ポーズ推定の分解である。
第2のイノベーションはPixDropoutで、私たちの知る限り、手深度画像のための最初の外見に基づくデータ拡張手法です。
論文 参考訳(メタデータ) (2022-06-14T19:08:42Z) - 3D Hand Pose and Shape Estimation from RGB Images for Improved
Keypoint-Based Hand-Gesture Recognition [25.379923604213626]
本稿では3次元手とポーズ推定のためのキーポイントに基づくエンドツーエンドフレームワークを提案する。
研究ケースとして手身認識タスクにうまく適用できる。
論文 参考訳(メタデータ) (2021-09-28T17:07:43Z) - Learning to Disambiguate Strongly Interacting Hands via Probabilistic
Per-pixel Part Segmentation [84.28064034301445]
自己相似性と、それぞれの手にピクセル観察を割り当てるあいまいさは、最終的な3Dポーズエラーの大きな原因である。
1つの単眼画像から2つの手の3次元ポーズを推定する新しい手法であるDIGITを提案する。
提案手法は,InterHand2.6Mデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-01T13:28:02Z) - Unsupervised Cross-Modal Alignment for Multi-Person 3D Pose Estimation [52.94078950641959]
マルチパーソン・ヒューマン・ポーズ推定のためのデプロイフレンドリーで高速なボトムアップ・フレームワークを提案する。
我々は,人物の位置を対応する3Dポーズ表現と統一する,多人数の3Dポーズのニューラル表現を採用する。
ペア化された2Dまたは3Dポーズアノテーションが利用できない実用的な配置パラダイムを提案する。
論文 参考訳(メタデータ) (2020-08-04T07:54:25Z) - HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose
Estimation from a Single Depth Map [72.93634777578336]
弱教師付き方式で3次元畳み込みを訓練した新しいアーキテクチャを提案する。
提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。
我々の手法は、NYUとBigHand2.2Mデータセットで視覚的により合理的で現実的な手形を生成する。
論文 参考訳(メタデータ) (2020-04-03T14:27:16Z) - Weakly-Supervised 3D Human Pose Learning via Multi-view Images in the
Wild [101.70320427145388]
本稿では、3Dアノテーションを必要としない弱教師付きアプローチを提案し、ラベルのないマルチビューデータから3Dポーズを推定する。
提案手法を2つの大規模データセット上で評価する。
論文 参考訳(メタデータ) (2020-03-17T08:47:16Z) - Silhouette-Net: 3D Hand Pose Estimation from Silhouettes [16.266199156878056]
既存のアプローチは主に、モノクラーRGB、マルチビューRGB、ディープ、ポイントクラウドなど、異なる入力モダリティと設定を考慮に入れている。
暗黙の奥行き認識からガイダンスを自動的に学習し、エンドツーエンドのトレーニングを通じてポーズのあいまいさを解決する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2019-12-28T10:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。