論文の概要: SRHand: Super-Resolving Hand Images and 3D Shapes via View/Pose-aware Neural Image Representations and Explicit 3D Meshes
- arxiv url: http://arxiv.org/abs/2509.21859v1
- Date: Fri, 26 Sep 2025 04:34:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.179448
- Title: SRHand: Super-Resolving Hand Images and 3D Shapes via View/Pose-aware Neural Image Representations and Explicit 3D Meshes
- Title(参考訳): SRHand:ビュー/Pose-Awareニューラルイメージ表現と明示的な3Dメッシュによる超解像ハンドイメージと3D形状
- Authors: Minje Kim, Tae-Kyun Kim,
- Abstract要約: SRHand (Super-Resolution Hand) は、低解像度画像から手の詳細な3次元形状とテクスチャ画像の再構成方法である。
具体的には、粗い入力画像のアップサンプリングにより、詳細ハンドを事前に学習する幾何学的認識型暗黙画像関数(GIIF)を導入する。
提案手法は,手動データセットに適応した最先端画像アップサンプリング手法よりも優れていた。
- 参考スコア(独自算出の注目度): 36.86182718729699
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reconstructing detailed hand avatars plays a crucial role in various applications. While prior works have focused on capturing high-fidelity hand geometry, they heavily rely on high-resolution multi-view image inputs and struggle to generalize on low-resolution images. Multi-view image super-resolution methods have been proposed to enforce 3D view consistency. These methods, however, are limited to static objects/scenes with fixed resolutions and are not applicable to articulated deformable hands. In this paper, we propose SRHand (Super-Resolution Hand), the method for reconstructing detailed 3D geometry as well as textured images of hands from low-resolution images. SRHand leverages the advantages of implicit image representation with explicit hand meshes. Specifically, we introduce a geometric-aware implicit image function (GIIF) that learns detailed hand prior by upsampling the coarse input images. By jointly optimizing the implicit image function and explicit 3D hand shapes, our method preserves multi-view and pose consistency among upsampled hand images, and achieves fine-detailed 3D reconstruction (wrinkles, nails). In experiments using the InterHand2.6M and Goliath datasets, our method significantly outperforms state-of-the-art image upsampling methods adapted to hand datasets, and 3D hand reconstruction methods, quantitatively and qualitatively. Project page: https://yunminjin2.github.io/projects/srhand
- Abstract(参考訳): 詳細ハンドアバターの再構築は、様々な応用において重要な役割を担っている。
以前の研究は高忠実度手形状の取得に重点を置いていたが、高解像度の多視点画像入力に大きく依存しており、低解像度画像の一般化に苦慮している。
マルチビュー画像超解像法は3次元ビューの整合性を実現するために提案されている。
しかし、これらの手法は固定解像度の静的オブジェクト/シーンに限られており、関節で変形可能な手には適用できない。
本稿では,低解像度画像から手のテクスチャ画像だけでなく,詳細な3次元形状を再構成するSRHand(Super-Resolution Hand)を提案する。
SRHandは、明示的なハンドメッシュによる暗黙的なイメージ表現の利点を活用する。
具体的には、粗い入力画像のアップサンプリングにより、詳細ハンドを事前に学習する幾何学的認識型暗黙画像関数(GIIF)を導入する。
暗黙的画像機能と明示的な3次元手形を協調的に最適化することにより, 複数視点を保ち, アップサンプル画像間の一貫性を保ち, 細かな3次元再構築(しわ, 爪)を実現する。
InterHand2.6MとGoliathのデータセットを用いた実験では、手動データセットに適応した最先端画像アップサンプリング法と3次元手動再構成法とを定量的に定性的に比較した。
プロジェクトページ:https://yunminjin2.github.io/projects/srhand
関連論文リスト
- 3D Hand Mesh-Guided AI-Generated Malformed Hand Refinement with Hand Pose Transformation via Diffusion Model [40.20849519857311]
本稿では,拡散パイプラインを用いた3次元メッシュ誘導精製フレームワークを提案する。
トレーニングのために、RGB画像と3Dハンドメッシュからなるデータセットを収集し、再注釈する。
次に,3次元ハンドメッシュで導かれる洗練された出力を生成する拡散塗装モデルを設計する。
論文 参考訳(メタデータ) (2025-06-15T01:30:22Z) - HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - JGHand: Joint-Driven Animatable Hand Avater via 3D Gaussian Splatting [3.1143479095236892]
Jointly 3D Gaussian Hand (JGHand)は、新しい3D Gaussian Splatting (3DGS)ベースの手表現である。
JGHandは、最先端の手法を超越した、高品質なリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2025-01-31T12:33:24Z) - gSDF: Geometry-Driven Signed Distance Functions for 3D Hand-Object
Reconstruction [94.46581592405066]
我々は手の構造を利用してSDFによる形状復元の指導を行う。
我々は、ポーズ変換のキネマティック連鎖を予測し、SDFを高調波ハンドポーズと整列させる。
論文 参考訳(メタデータ) (2023-04-24T10:05:48Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose
Estimation from a Single Depth Map [72.93634777578336]
弱教師付き方式で3次元畳み込みを訓練した新しいアーキテクチャを提案する。
提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。
我々の手法は、NYUとBigHand2.2Mデータセットで視覚的により合理的で現実的な手形を生成する。
論文 参考訳(メタデータ) (2020-04-03T14:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。