論文の概要: Hand Avatar: Free-Pose Hand Animation and Rendering from Monocular Video
- arxiv url: http://arxiv.org/abs/2211.12782v2
- Date: Wed, 22 Mar 2023 09:08:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 01:49:07.938885
- Title: Hand Avatar: Free-Pose Hand Animation and Rendering from Monocular Video
- Title(参考訳): ハンズ・アバター:モノクラー・ビデオによる無料のハンドアニメーションとレンダリング
- Authors: Xingyu Chen, Baoyuan Wang, Heung-Yeung Shum
- Abstract要約: 我々は手動アニメーションとレンダリングのための新しい表現であるHandAvatarを紹介する。
HandAvatarは、スムーズな構成幾何学と自己排他的テクスチャを生成することができる。
- 参考スコア(独自算出の注目度): 23.148367696192107
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present HandAvatar, a novel representation for hand animation and
rendering, which can generate smoothly compositional geometry and
self-occlusion-aware texture. Specifically, we first develop a MANO-HD model as
a high-resolution mesh topology to fit personalized hand shapes. Sequentially,
we decompose hand geometry into per-bone rigid parts, and then re-compose
paired geometry encodings to derive an across-part consistent occupancy field.
As for texture modeling, we propose a self-occlusion-aware shading field
(SelF). In SelF, drivable anchors are paved on the MANO-HD surface to record
albedo information under a wide variety of hand poses. Moreover, directed soft
occupancy is designed to describe the ray-to-surface relation, which is
leveraged to generate an illumination field for the disentanglement of
pose-independent albedo and pose-dependent illumination. Trained from monocular
video data, our HandAvatar can perform free-pose hand animation and rendering
while at the same time achieving superior appearance fidelity. We also
demonstrate that HandAvatar provides a route for hand appearance editing.
Project website: https://seanchenxy.github.io/HandAvatarWeb.
- Abstract(参考訳): 本稿では,手動アニメーションとレンダリングのための新しい表現であるHandAvatarについて述べる。
具体的には,まず,個人の手形に適合する高分解能メッシュトポロジとしてmano-hdモデルを開発した。
続いて、手動幾何学を骨ごとの剛性部分に分解し、ペア化された幾何符号化を再度分解して、一貫した占有場を導出する。
テクスチャモデリングでは,自己閉塞型シェーディングフィールド(SelF)を提案する。
SelFでは、乾燥可能なアンカーをMANO-HD表面に舗装し、さまざまな手ポーズの下でアルベド情報を記録する。
さらに, 姿勢非依存アルベドとポーズ依存イルミネーションのアンタングル化のための照明場を生成するために利用した光-表面関係を記述した。
モノクロビデオデータからトレーニングしたHandAvatarは、自由な手動アニメーションとレンダリングを同時に実現しつつ、優れた外観忠実性を実現します。
また,ハンダバタールが手外観編集の経路を提供することも実証した。
プロジェクトウェブサイト: https://seanchenxy.github.io/HandAvatarWeb
関連論文リスト
- XHand: Real-time Expressive Hand Avatar [9.876680405587745]
我々は,手形,外観,変形をリアルタイムで生成できる表現力のある手形アバターXHandを紹介した。
XHandは、さまざまなポーズをリアルタイムで横断する手動アニメーションのための高忠実な幾何学とテクスチャを復元することができる。
論文 参考訳(メタデータ) (2024-07-30T17:49:21Z) - VividPose: Advancing Stable Video Diffusion for Realistic Human Image Animation [79.99551055245071]
時間的安定性を向上するエンドツーエンドパイプラインであるVividPoseを提案する。
識別対応外見制御器は、他の外見の詳細を損なうことなく、追加の顔情報を統合する。
SMPL-Xからの高密度レンダリングマップとスパーススケルトンマップの両方を利用する幾何対応のポーズコントローラ。
VividPoseは、提案したWildデータセットに優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-05-28T13:18:32Z) - TexVocab: Texture Vocabulary-conditioned Human Avatars [42.170169762733835]
TexVocabは、テクスチャ語彙を構築し、ボディポーズをアニメーション用のテクスチャマップに関連付ける新しいアバター表現である。
提案手法は,RGBビデオから詳細な動的外見を持つアニマタブルなヒトアバターを作成できる。
論文 参考訳(メタデータ) (2024-03-31T01:58:04Z) - Democratizing the Creation of Animatable Facial Avatars [2.1740466069378597]
光ステージやハイエンドハードウェアを使わずに幾何学やテクスチャを得るための新しいパイプラインを提案する。
キーとなる新しいアイデアは、テンプレートアバターの幾何学と整合するように現実世界の画像を歪めることである。
提案手法は,中性表現幾何学とデライトテクスチャを得るだけでなく,アニメーションシステムにインポートされたアバターの改良にも利用することができる。
論文 参考訳(メタデータ) (2024-01-29T20:14:40Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - AvatarReX: Real-time Expressive Full-body Avatars [35.09470037950997]
ビデオデータからNeRFに基づくフルボディアバターを学習するための新しい手法であるAvatarReXを提案する。
学習されたアバターは、身体、手、顔の表現力のある制御を提供するだけでなく、リアルタイムのアニメーションやレンダリングもサポートする。
論文 参考訳(メタデータ) (2023-05-08T15:43:00Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - HandNeRF: Neural Radiance Fields for Animatable Interacting Hands [122.32855646927013]
神経放射場(NeRF)を用いて手の動きを正確に再現する新しい枠組みを提案する。
我々は,提案するHandNeRFのメリットを検証するための広範囲な実験を行い,その成果を報告する。
論文 参考訳(メタデータ) (2023-03-24T06:19:19Z) - HARP: Personalized Hand Reconstruction from a Monocular RGB Video [37.384221764796095]
本稿では,ヒトの手の短い単眼的RGB映像を入力として用いた,パーソナライズされた手指アバター作成手法であるHARPを提案する。
神経暗黙表現の大きな傾向とは対照的に、HARPはメッシュベースのパラメトリックハンドモデルで手をモデル化する。
HarPはリアルタイムレンダリング機能を備えたAR/VRアプリケーションで直接使用することができる。
論文 参考訳(メタデータ) (2022-12-19T15:21:55Z) - PointAvatar: Deformable Point-based Head Avatars from Videos [103.43941945044294]
PointAvatarは変形可能な点ベースの表現で、原色を固有アルベドと正規依存シェーディングに分解する。
提案手法は,複数の音源からのモノクロビデオを用いて,アニマタブルな3Dアバターを生成することができることを示す。
論文 参考訳(メタデータ) (2022-12-16T10:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。