論文の概要: PALM: A Dataset and Baseline for Learning Multi-subject Hand Prior
- arxiv url: http://arxiv.org/abs/2511.05403v1
- Date: Fri, 07 Nov 2025 16:28:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.836737
- Title: PALM: A Dataset and Baseline for Learning Multi-subject Hand Prior
- Title(参考訳): PALM:マルチオブジェクトハンドの事前学習のためのデータセットとベースライン
- Authors: Zicong Fan, Edoardo Remelli, David Dimond, Fadime Sener, Liuhao Ge, Bugra Tekin, Cem Keskin, Shreyas Hampali,
- Abstract要約: 被験者263名と多視点画像90kから13kの高画質ハンドスキャンからなる大規模データセットPALMを提案する。
パームのスケールと多様性は、ハンドモデリングと関連する研究のための貴重な現実世界の資源となっている。
- 参考スコア(独自算出の注目度): 19.320761012596183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to grasp objects, signal with gestures, and share emotion through touch all stem from the unique capabilities of human hands. Yet creating high-quality personalized hand avatars from images remains challenging due to complex geometry, appearance, and articulation, particularly under unconstrained lighting and limited views. Progress has also been limited by the lack of datasets that jointly provide accurate 3D geometry, high-resolution multiview imagery, and a diverse population of subjects. To address this, we present PALM, a large-scale dataset comprising 13k high-quality hand scans from 263 subjects and 90k multi-view images, capturing rich variation in skin tone, age, and geometry. To show its utility, we present a baseline PALM-Net, a multi-subject prior over hand geometry and material properties learned via physically based inverse rendering, enabling realistic, relightable single-image hand avatar personalization. PALM's scale and diversity make it a valuable real-world resource for hand modeling and related research.
- Abstract(参考訳): オブジェクトを把握し、ジェスチャーで信号を発信し、タッチを通じて感情を共有する能力は、すべて、人間の手のユニークな能力に由来する。
しかし、画像から高品質のパーソナライズされた手用アバターを作成することは、特に制約のない照明と限られた視野の下で、複雑な幾何学、外観、調音のために依然として困難である。
プログレスはまた、正確な3D幾何学、高解像度のマルチビュー画像、多人数の被験者を共同で提供するデータセットの欠如によって制限されている。
そこで本研究では,263件の被験者と90件のマルチビュー画像から13kの高画質ハンドスキャンを行い,肌の色調,年齢,形状の多彩な変化を捉えた大規模データセットPALMを提案する。
実用性を示すために,本論文では,物理的にベースとした逆レンダリングにより学習したマルチオブジェクトのマルチオブジェクトであるPALM-Netを紹介し,現実的で,リライクな単一イメージのアバターパーソナライゼーションを実現する。
PALMのスケールと多様性は、ハンドモデリングと関連する研究のための貴重な現実世界のリソースとなる。
関連論文リスト
- IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - HUP-3D: A 3D multi-view synthetic dataset for assisted-egocentric hand-ultrasound pose estimation [11.876066932162873]
HUP-3Dは手動超音波プローブポーズ推定のための3次元マルチビュー合成データセットである。
私たちのデータセットは31万以上の動きで構成されています。
我々のアプローチには、画像レンダリングの概念、様々な手や腕のテクスチャによる多様性の向上が含まれる。
論文 参考訳(メタデータ) (2024-07-12T12:25:42Z) - CharacterGen: Efficient 3D Character Generation from Single Images with Multi-View Pose Canonicalization [27.55341255800119]
本稿では,3Dキャラクタを効率的に生成するフレームワークである characterGen を提案する。
変換器ベースで一般化可能なスパースビュー再構成モデルが,我々のアプローチの他のコアコンポーネントである。
複数のポーズやビューでレンダリングされたアニメキャラクタのデータセットをキュレートして,モデルをトレーニングし,評価した。
論文 参考訳(メタデータ) (2024-02-27T05:10:59Z) - Animatable Virtual Humans: Learning pose-dependent human representations
in UV space for interactive performance synthesis [11.604386285817302]
高精度な動的メッシュシーケンスから、ポーズ依存の外観と幾何学を学習する。
SMPLモデルの一貫したUV空間において、ポーズ依存の外観と幾何学の両方を符号化する。
論文 参考訳(メタデータ) (2023-10-05T15:49:44Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。