論文の概要: HandTailor: Towards High-Precision Monocular 3D Hand Recovery
- arxiv url: http://arxiv.org/abs/2102.09244v1
- Date: Thu, 18 Feb 2021 09:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:19:54.527417
- Title: HandTailor: Towards High-Precision Monocular 3D Hand Recovery
- Title(参考訳): HandTailor: 高精度なモノクル3Dハンドリカバリを目指して
- Authors: Jun Lv, Wenqiang Xu, Lixin Yang, Sucheng Qian, Chongzhao Mao, Cewu Lu
- Abstract要約: 学習ベースのハンドモジュールと最適化ベースのテーラーモジュールを組み合わせることで、単眼RGB画像から高精度なハンドメッシュリカバリを実現します。
提案するハンドモジュールは,1つのネットワークにおける視点投影と弱い視点投影を,精度指向およびワイルドシナリオに向けて統一する。
我々は、HandTailorがいくつかの公開ベンチマークで最先端のパフォーマンスを得られることを実証した。
- 参考スコア(独自算出の注目度): 38.339359570898765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D hand pose estimation and shape recovery are challenging tasks in computer
vision. We introduce a novel framework HandTailor, which combines a
learning-based hand module and an optimization-based tailor module to achieve
high-precision hand mesh recovery from a monocular RGB image. The proposed hand
module unifies perspective projection and weak perspective projection in a
single network towards accuracy-oriented and in-the-wild scenarios. The
proposed tailor module then utilizes the coarsely reconstructed mesh model
provided by the hand module as initialization, and iteratively optimizes an
energy function to obtain better results. The tailor module is time-efficient,
costs only 8ms per frame on a modern CPU. We demonstrate that HandTailor can
get state-of-the-art performance on several public benchmarks, with impressive
qualitative results on in-the-wild experiments.
- Abstract(参考訳): 3次元手ポーズ推定と形状復元はコンピュータビジョンにおける課題である。
学習ベースのハンドモジュールと最適化ベースのテーラーモジュールを組み合わせて,モノクロRGB画像から高精度の手メッシュ回復を実現する,新しいフレームワークHandTailorを提案する。
提案するハンドモジュールは,1つのネットワークにおける視点投影と弱い視点投影を,精度指向およびワイルドシナリオに向けて統一する。
提案したテーラーモジュールは,ハンドモジュールの粗い再構成メッシュモデルを初期化として利用し,エネルギー関数を反復的に最適化してより良い結果を得る。
テーラーモジュールは時間効率が良く、1フレームあたり8msしかコストがかからない。
我々は、HandTailorがいくつかの公開ベンチマークで最先端のパフォーマンスを得られることを実証した。
関連論文リスト
- GGRt: Towards Pose-free Generalizable 3D Gaussian Splatting in Real-time [112.32349668385635]
GGRtは、現実のカメラポーズの必要性を軽減する、一般化可能な新しいビュー合成のための新しいアプローチである。
最初のポーズフリーの一般化可能な3D-GSフレームワークとして、GGRtは$ge$5 FPSで、リアルタイムレンダリングは$ge$100 FPSで実現している。
論文 参考訳(メタデータ) (2024-03-15T09:47:35Z) - 3D Points Splatting for Real-Time Dynamic Hand Reconstruction [13.392046706568275]
3Dポイントスプレイティングハンドリコンストラクション(3D-PSHR)はリアルタイム・光リアルハンドリコンストラクション手法である。
本稿では,高分解能手形状表現を実現するための自己適応型標準点アップ戦略を提案する。
テクスチャをモデル化するため,本態性アルベドとポーズアウェアシェーディングの外観色を分離した。
論文 参考訳(メタデータ) (2023-12-21T11:50:49Z) - Mesh Represented Recycle Learning for 3D Hand Pose and Mesh Estimation [3.126179109712709]
本稿では,3次元ハンドポーズとメッシュ推定のためのメッシュ表現型リサイクル学習戦略を提案する。
具体的には、ハンドポーズとメッシュ推定モデルはまずパラメトリックな3Dハンドアノテーションを予測する。
次に、自己推定手メッシュ表現を用いて合成手画像を生成する。
第3に、合成手画像は同じモデルに再び入力される。
論文 参考訳(メタデータ) (2023-10-18T09:50:09Z) - 1st Place Solution of Egocentric 3D Hand Pose Estimation Challenge 2023
Technical Report:A Concise Pipeline for Egocentric Hand Pose Reconstruction [11.551318550321938]
AssemblyHandsを使って、この課題は、単視点画像からエゴセントリックな3D手ポーズの推定に焦点を当てる。
ViTベースのバックボーンと、強力なモデルベースラインを提供する3Dキーポイント予測のためのシンプルな回帰器を採用しています。
提案手法は,テストデータセット上で12.21mmMPJPEを達成し,Egocentric 3D Hand Pose Estimation において第1位を獲得した。
論文 参考訳(メタデータ) (2023-10-07T10:25:50Z) - HandMIM: Pose-Aware Self-Supervised Learning for 3D Hand Mesh Estimation [5.888156950854715]
本稿では,3次元ハンドメッシュパラメータの回帰のための自己教師付き事前学習戦略を提案する。
提案手法はHandMIMと呼ばれ,様々なハンドメッシュ推定タスクにおいて高い性能を実現する。
論文 参考訳(メタデータ) (2023-07-29T19:46:06Z) - Efficient Virtual View Selection for 3D Hand Pose Estimation [50.93751374572656]
単一深度からの3次元手ポーズ推定のための仮想ビュー選択と融合モジュールを提案する。
提案する仮想ビュー選択と融合モジュールはどちらも3次元手ポーズ推定に有効である。
論文 参考訳(メタデータ) (2022-03-29T11:57:53Z) - Towards Accurate Alignment in Real-time 3D Hand-Mesh Reconstruction [57.3636347704271]
RGB画像からの3Dハンドメッシュ再構築は拡張現実(AR)を含む多くのアプリケーションに役立つ
本稿では,手指再建作業を3段階に分割し,新しいパイプラインを提案する。
高品質な指レベルのメッシュイメージアライメントを促進し、モデルをまとめて、リアルタイムな予測を実現することができます。
論文 参考訳(メタデータ) (2021-09-03T20:42:01Z) - FrankMocap: A Monocular 3D Whole-Body Pose Estimation System via
Regression and Integration [34.70952457495492]
FrankMocapは、高速で正確な全身3Dポーズ推定システムである。
3Dの顔、手、体を、Wildのモノクル画像から同時に生成できる。
論文 参考訳(メタデータ) (2021-08-13T23:57:27Z) - PaMIR: Parametric Model-Conditioned Implicit Representation for
Image-based Human Reconstruction [67.08350202974434]
本研究では,パラメトリックボディモデルと自由形深部暗黙関数を組み合わせたパラメトリックモデル記述型暗黙表現(PaMIR)を提案する。
本手法は, 挑戦的なポーズや衣料品のタイプにおいて, 画像に基づく3次元再構築のための最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-08T02:26:19Z) - Monocular Real-time Hand Shape and Motion Capture using Multi-modal Data [77.34069717612493]
本稿では,100fpsの単眼手形状とポーズ推定の新たな手法を提案する。
これは、利用可能なハンドトレーニングデータのソースをすべて活用できるように設計された、新しい学習ベースのアーキテクチャによって実現されている。
3次元手関節検出モジュールと逆キネマティクスモジュールを備えており、3次元手関節位置だけでなく、1つのフィードフォワードパスでそれらを関節回転にマッピングする。
論文 参考訳(メタデータ) (2020-03-21T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。