論文の概要: Monocular 3D Hand Mesh Recovery via Dual Noise Estimation
- arxiv url: http://arxiv.org/abs/2312.15916v1
- Date: Tue, 26 Dec 2023 07:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:45:58.597482
- Title: Monocular 3D Hand Mesh Recovery via Dual Noise Estimation
- Title(参考訳): デュアルノイズ推定による単眼3Dハンドメッシュの復元
- Authors: Hanhui Li, Xiaojian Lin, Xuan Huang, Zejun Yang, Zhisheng Wang,
Xiaodan Liang
- Abstract要約: 画像によく整合したメッシュを生成するための二重雑音推定手法を提案する。
提案手法は,大規模なInterhand2.6Mデータセット上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 47.82179706128616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current parametric models have made notable progress in 3D hand pose and
shape estimation. However, due to the fixed hand topology and complex hand
poses, current models are hard to generate meshes that are aligned with the
image well. To tackle this issue, we introduce a dual noise estimation method
in this paper. Given a single-view image as input, we first adopt a baseline
parametric regressor to obtain the coarse hand meshes. We assume the mesh
vertices and their image-plane projections are noisy, and can be associated in
a unified probabilistic model. We then learn the distributions of noise to
refine mesh vertices and their projections. The refined vertices are further
utilized to refine camera parameters in a closed-form manner. Consequently, our
method obtains well-aligned and high-quality 3D hand meshes. Extensive
experiments on the large-scale Interhand2.6M dataset demonstrate that the
proposed method not only improves the performance of its baseline by more than
10$\%$ but also achieves state-of-the-art performance. Project page:
\url{https://github.com/hanhuili/DNE4Hand}.
- Abstract(参考訳): 現在のパラメトリックモデルは、3Dハンドポーズと形状推定において顕著な進歩を遂げている。
しかし、固定手位相と複雑な手ポーズのため、現在のモデルは画像によく整合したメッシュを生成することは困難である。
本稿では,この問題に対処するため,二重雑音推定手法を提案する。
入力として単一ビュー画像が与えられると、まずベースラインパラメトリック回帰器を用いて粗い手メッシュを得る。
メッシュ頂点とその画像平面投影はノイズが多いと仮定し、統一確率モデルに関連付けることができる。
次にノイズの分布を学習し、メッシュ頂点とその投影を洗練する。
さらに、精巧な頂点を用いて、カメラパラメータをクローズド形式で精製する。
そこで本手法は,高品質な3Dハンドメッシュを実現する。
大規模Interhand2.6Mデータセットの大規模な実験により、提案手法はベースラインの性能を10$\%以上向上するだけでなく、最先端のパフォーマンスも達成することを示した。
プロジェクトページ: \url{https://github.com/hanhuili/DNE4Hand}。
関連論文リスト
- No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - HandDiff: 3D Hand Pose Estimation with Diffusion on Image-Point Cloud [60.47544798202017]
ハンドポーズ推定は、様々な人間とコンピュータの相互作用アプリケーションにおいて重要なタスクである。
本論文は,手形画像点雲上での正確な手ポーズを反復的に認知する拡散型手ポーズ推定モデルであるHandDiffを提案する。
実験の結果,提案したHandDiffは,4つの挑戦的なハンドポーズベンチマークデータセットにおいて,既存のアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-04-04T02:15:16Z) - Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - MeshDiffusion: Score-based Generative 3D Mesh Modeling [68.40770889259143]
本研究では,シーンの自動生成と物理シミュレーションのための現実的な3次元形状生成の課題について考察する。
メッシュのグラフ構造を利用して、3Dメッシュを生成するのにシンプルだが非常に効果的な生成モデリング手法を用いる。
具体的には、変形可能な四面体格子でメッシュを表現し、この直接パラメトリゼーション上で拡散モデルを訓練する。
論文 参考訳(メタデータ) (2023-03-14T17:59:01Z) - Im2Mesh GAN: Accurate 3D Hand Mesh Recovery from a Single RGB Image [31.371190180801452]
入力画像から直接ハンドメッシュを学習できることが示される。
我々は、エンドツーエンドの学習を通してメッシュを学習するための新しいタイプのGANIm2Mesh GANを提案する。
論文 参考訳(メタデータ) (2021-01-27T07:38:01Z) - MVHM: A Large-Scale Multi-View Hand Mesh Benchmark for Accurate 3D Hand
Pose Estimation [32.12879364117658]
1枚のRGB画像から3Dハンドポーズを推定することは困難である。
我々は、任意のターゲットメッシュ基底真理に一致する剛性メッシュモデルを可能にするスピンマッチングアルゴリズムを設計する。
提案手法は,提案するデータセットを用いて手ポーズ推定器の訓練が性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-12-06T07:55:08Z) - HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose
Estimation from a Single Depth Map [72.93634777578336]
弱教師付き方式で3次元畳み込みを訓練した新しいアーキテクチャを提案する。
提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。
我々の手法は、NYUとBigHand2.2Mデータセットで視覚的により合理的で現実的な手形を生成する。
論文 参考訳(メタデータ) (2020-04-03T14:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。