論文の概要: HandOcc: NeRF-based Hand Rendering with Occupancy Networks
- arxiv url: http://arxiv.org/abs/2505.02079v1
- Date: Sun, 04 May 2025 12:06:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.418609
- Title: HandOcc: NeRF-based Hand Rendering with Occupancy Networks
- Title(参考訳): HandOcc: Occupancy Networksを使ったNeRFベースのハンドレンダリング
- Authors: Maksym Ivashechkin, Oscar Mendez, Richard Bowden,
- Abstract要約: 本稿では,手書きレンダリングのための新しいフレームワークであるHandOccを提案する。
本稿では,メッシュレス3Dレンダリングのためのパイプラインについて述べる。
ベンチマークのInterHand2.6Mデータセットで最先端の結果を得る。
- 参考スコア(独自算出の注目度): 33.9893684177763
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose HandOcc, a novel framework for hand rendering based upon occupancy. Popular rendering methods such as NeRF are often combined with parametric meshes to provide deformable hand models. However, in doing so, such approaches present a trade-off between the fidelity of the mesh and the complexity and dimensionality of the parametric model. The simplicity of parametric mesh structures is appealing, but the underlying issue is that it binds methods to mesh initialization, making it unable to generalize to objects where a parametric model does not exist. It also means that estimation is tied to mesh resolution and the accuracy of mesh fitting. This paper presents a pipeline for meshless 3D rendering, which we apply to the hands. By providing only a 3D skeleton, the desired appearance is extracted via a convolutional model. We do this by exploiting a NeRF renderer conditioned upon an occupancy-based representation. The approach uses the hand occupancy to resolve hand-to-hand interactions further improving results, allowing fast rendering, and excellent hand appearance transfer. On the benchmark InterHand2.6M dataset, we achieved state-of-the-art results.
- Abstract(参考訳): 本稿では,手書きレンダリングのための新しいフレームワークであるHandOccを提案する。
NeRFのような一般的なレンダリング手法は、変形可能なハンドモデルを提供するためにパラメトリックメッシュと組み合わせられることが多い。
しかし、そのような手法はメッシュの忠実度とパラメトリックモデルの複雑さと次元性との間にトレードオフをもたらす。
パラメトリックメッシュ構造の単純さは魅力的だが、根底にある問題は、メッシュの初期化にメソッドをバインドすることで、パラメトリックモデルが存在しないオブジェクトに一般化できないことである。
また、メッシュの解像度とメッシュフィッティングの精度に関係していることも意味している。
本稿では,メッシュレス3Dレンダリングのためのパイプラインについて述べる。
3Dスケルトンのみを提供することで、所望の外観を畳み込みモデルにより抽出する。
我々は、占有率に基づく表現に基づいて、NeRFレンダラーを利用する。
このアプローチでは、ハンド・ツー・ハンドのインタラクションを解決し、結果をさらに改善し、高速なレンダリングを可能にし、優れたハンド・ツー・ハンド・トランスファーを実現している。
ベンチマークのInterHand2.6Mデータセットでは、最先端の結果が得られました。
関連論文リスト
- Two Hands Are Better Than One: Resolving Hand to Hand Intersections via Occupancy Networks [33.9893684177763]
自己閉塞と指の関節は推定に重大な問題を引き起こす。
我々は、手の体積を連続多様体として表す占有ネットワークを利用する。
我々は,手動交差点の可能性を最小限に抑えるために,交差点損失関数を設計する。
論文 参考訳(メタデータ) (2024-04-08T11:32:26Z) - Monocular 3D Hand Mesh Recovery via Dual Noise Estimation [47.82179706128616]
画像によく整合したメッシュを生成するための二重雑音推定手法を提案する。
提案手法は,大規模なInterhand2.6Mデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-12-26T07:21:01Z) - Overcoming the Trade-off Between Accuracy and Plausibility in 3D Hand
Shape Reconstruction [62.96478903239799]
3次元手形状復元のための直接メッシュフィッティングは非常に正確である。
しかし、再建されたメッシュはアーティファクトに傾向があり、もっともらしい手の形には見えない。
本稿では,MANOモデルと非パラメトリックメッシュフィッティングをエンドツーエンドで統合した手形状推定フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-01T03:38:01Z) - HandOccNet: Occlusion-Robust 3D Hand Mesh Estimation Network [57.206129938611454]
本稿では,新しい3Dハンドメッシュ推定ネットワークHandOccNetを提案する。
閉鎖領域に手情報を注入することで、HandOccNetは3Dハンドメッシュベンチマークの最先端性能に達する。
論文 参考訳(メタデータ) (2022-03-28T08:12:16Z) - Mesh Draping: Parametrization-Free Neural Mesh Transfer [92.55503085245304]
Mesh Drapingは、既存のメッシュ構造をある形状から別の形状に転送するニューラルネットワークである。
我々は、徐々に増加する周波数を活用して、ニューラルネットワークの最適化を導くことにより、安定かつ高品質なメッシュ転送を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-11T17:24:52Z) - Towards Accurate Alignment in Real-time 3D Hand-Mesh Reconstruction [57.3636347704271]
RGB画像からの3Dハンドメッシュ再構築は拡張現実(AR)を含む多くのアプリケーションに役立つ
本稿では,手指再建作業を3段階に分割し,新しいパイプラインを提案する。
高品質な指レベルのメッシュイメージアライメントを促進し、モデルをまとめて、リアルタイムな予測を実現することができます。
論文 参考訳(メタデータ) (2021-09-03T20:42:01Z) - HandFoldingNet: A 3D Hand Pose Estimation Network Using
Multiscale-Feature Guided Folding of a 2D Hand Skeleton [4.1954750695245835]
本稿では,高精度かつ効率的なポーズ推定器であるHandFoldingNetを提案する。
提案モデルでは, 折り畳み型デコーダを用いて, 与えられた2次元手骨を対応する関節座標に折り畳む。
実験結果から,提案モデルが既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-08-12T05:52:44Z) - HandVoxNet++: 3D Hand Shape and Pose Estimation using Voxel-Based Neural
Networks [71.09275975580009]
HandVoxNet++は、完全に教師された方法でトレーニングされた3Dおよびグラフ畳み込みを備えた、ボクセルベースのディープネットワークである。
HandVoxNet++は2つの手形状表現に依存している。1つは手形状の3Dボキセル化グリッドで、メッシュトポロジを保存していない。
我々は、新しいニューラルグラフ畳み込みに基づくメッシュレジストレーション(GCN-MeshReg)または古典的セグメントワイド非リジッド重力法(NRGA++)と、手表面をボキセル化ハンド形状に整列させることにより、両表現の利点を組み合わせる。
論文 参考訳(メタデータ) (2021-07-02T17:59:54Z) - Im2Mesh GAN: Accurate 3D Hand Mesh Recovery from a Single RGB Image [31.371190180801452]
入力画像から直接ハンドメッシュを学習できることが示される。
我々は、エンドツーエンドの学習を通してメッシュを学習するための新しいタイプのGANIm2Mesh GANを提案する。
論文 参考訳(メタデータ) (2021-01-27T07:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。