論文の概要: Silhouette-Net: 3D Hand Pose Estimation from Silhouettes
- arxiv url: http://arxiv.org/abs/1912.12436v1
- Date: Sat, 28 Dec 2019 10:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 12:52:38.078560
- Title: Silhouette-Net: 3D Hand Pose Estimation from Silhouettes
- Title(参考訳): シルエットネット:シルエットからの3次元ハンドポース推定
- Authors: Kuo-Wei Lee, Shih-Hung Liu, Hwann-Tzong Chen, Koichi Ito
- Abstract要約: 既存のアプローチは主に、モノクラーRGB、マルチビューRGB、ディープ、ポイントクラウドなど、異なる入力モダリティと設定を考慮に入れている。
暗黙の奥行き認識からガイダンスを自動的に学習し、エンドツーエンドのトレーニングを通じてポーズのあいまいさを解決する新しいアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 16.266199156878056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D hand pose estimation has received a lot of attention for its wide range of
applications and has made great progress owing to the development of deep
learning. Existing approaches mainly consider different input modalities and
settings, such as monocular RGB, multi-view RGB, depth, or point cloud, to
provide sufficient cues for resolving variations caused by self occlusion and
viewpoint change. In contrast, this work aims to address the less-explored idea
of using minimal information to estimate 3D hand poses. We present a new
architecture that automatically learns a guidance from implicit depth
perception and solves the ambiguity of hand pose through end-to-end training.
The experimental results show that 3D hand poses can be accurately estimated
from solely {\em hand silhouettes} without using depth maps. Extensive
evaluations on the {\em 2017 Hands In the Million Challenge} (HIM2017)
benchmark dataset further demonstrate that our method achieves comparable or
even better performance than recent depth-based approaches and serves as the
state-of-the-art of its own kind on estimating 3D hand poses from silhouettes.
- Abstract(参考訳): 3Dハンドポーズ推定は広範囲のアプリケーションに対して多くの注目を集めており、ディープラーニングの開発によって大きな進歩を遂げている。
既存のアプローチは主に、モノクラーRGB、マルチビューRGB、ディープ、ポイントクラウドなどの異なる入力のモダリティや設定を考慮し、自己閉塞と視点変化による変動を解決するための十分な手がかりを提供する。
対照的に、この研究は、最小限の情報を使って3Dのポーズを推定するという、探索の少ないアイデアに対処することを目的としている。
暗黙の奥行き認識からガイダンスを自動的に学習し、エンドツーエンドのトレーニングを通じてポーズのあいまいさを解決する新しいアーキテクチャを提案する。
実験結果から, 深度マップを使わずに, 3次元手ポーズを単に手シルエットから正確に推定できることが示唆された。
unem 2017 hands in the million challenge” (him2017)ベンチマークデータセットの広範な評価は、最近の深度ベースのアプローチと同等あるいはそれ以上のパフォーマンスを達成し、シルエットからの3dハンドポーズの推定において、独自の最先端技術として役立つことをさらに証明している。
関連論文リスト
- SHARP: Segmentation of Hands and Arms by Range using Pseudo-Depth for Enhanced Egocentric 3D Hand Pose Estimation and Action Recognition [5.359837526794863]
ハンドポーズは、エゴセントリックな視点における行動認識のための重要な情報である。
擬似深度画像のみを用いてRGBフレームに基づく自家中心の3次元ポーズ推定を改善することを提案する。
論文 参考訳(メタデータ) (2024-08-19T14:30:29Z) - 3D Interacting Hand Pose Estimation by Hand De-occlusion and Removal [85.30756038989057]
単一のRGB画像から3Dインタラクションハンドポーズを推定することは、人間の行動を理解するのに不可欠である。
本稿では,難易度の高い手ポーズ推定タスクを分解し,各手のポーズを別々に推定することを提案する。
実験の結果,提案手法は従来の手ポーズ推定手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-07-22T13:04:06Z) - TriHorn-Net: A Model for Accurate Depth-Based 3D Hand Pose Estimation [8.946655323517092]
TriHorn-Netは、ディープイメージのポーズ推定精度を改善するために、特定のイノベーションを使用する新しいモデルである。
第1の革新は、深度画像空間における2次元関節位置推定への3次元手ポーズ推定の分解である。
第2のイノベーションはPixDropoutで、私たちの知る限り、手深度画像のための最初の外見に基づくデータ拡張手法です。
論文 参考訳(メタデータ) (2022-06-14T19:08:42Z) - Efficient Annotation and Learning for 3D Hand Pose Estimation: A Survey [23.113633046349314]
3Dハンドポーズ推定は、ビデオ理解、AR/VR、ロボット工学などの様々な応用を可能にする可能性がある。
しかし、モデルの性能は、注釈付き3Dハンドポーズの品質と量に結びついている。
本研究では,自己教師付き事前学習,半教師付き学習,ドメイン適応など,注釈付きデータが不足している場合の3次元手振りの学習方法を検討する。
論文 参考訳(メタデータ) (2022-06-05T20:18:52Z) - Efficient Virtual View Selection for 3D Hand Pose Estimation [50.93751374572656]
単一深度からの3次元手ポーズ推定のための仮想ビュー選択と融合モジュールを提案する。
提案する仮想ビュー選択と融合モジュールはどちらも3次元手ポーズ推定に有効である。
論文 参考訳(メタデータ) (2022-03-29T11:57:53Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose
Estimation from a Single Depth Map [72.93634777578336]
弱教師付き方式で3次元畳み込みを訓練した新しいアーキテクチャを提案する。
提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。
我々の手法は、NYUとBigHand2.2Mデータセットで視覚的により合理的で現実的な手形を生成する。
論文 参考訳(メタデータ) (2020-04-03T14:27:16Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。