論文の概要: PINA: Learning a Personalized Implicit Neural Avatar from a Single RGB-D
Video Sequence
- arxiv url: http://arxiv.org/abs/2203.01754v1
- Date: Thu, 3 Mar 2022 15:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 22:07:12.746391
- Title: PINA: Learning a Personalized Implicit Neural Avatar from a Single RGB-D
Video Sequence
- Title(参考訳): PINA:1つのRGB-Dビデオシーケンスからパーソナライズされた暗黙のニューラルアバターを学習する
- Authors: Zijian Dong, Chen Guo, Jie Song, Xu Chen, Andreas Geiger, Otmar
Hilliges
- Abstract要約: 本稿では,短いRGB-Dシーケンスからパーソナライズされたインシシットニューラルアバター(PINA)を学習する方法を提案する。
PINAは完全なスキャンを必要としないし、人間の大規模なデータセットから事前の学習も必要ではない。
ポーズ条件付暗示面と変形場を用いて形状と非剛性変形を学習する手法を提案する。
- 参考スコア(独自算出の注目度): 60.46092534331516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel method to learn Personalized Implicit Neural Avatars
(PINA) from a short RGB-D sequence. This allows non-expert users to create a
detailed and personalized virtual copy of themselves, which can be animated
with realistic clothing deformations. PINA does not require complete scans, nor
does it require a prior learned from large datasets of clothed humans. Learning
a complete avatar in this setting is challenging, since only few depth
observations are available, which are noisy and incomplete (i.e.only partial
visibility of the body per frame). We propose a method to learn the shape and
non-rigid deformations via a pose-conditioned implicit surface and a
deformation field, defined in canonical space. This allows us to fuse all
partial observations into a single consistent canonical representation. Fusion
is formulated as a global optimization problem over the pose, shape and
skinning parameters. The method can learn neural avatars from real noisy RGB-D
sequences for a diverse set of people and clothing styles and these avatars can
be animated given unseen motion sequences.
- Abstract(参考訳): 本稿では,短いRGB-Dシーケンスからパーソナライズされたインシシットニューラルアバター(PINA)を学習する方法を提案する。
これにより、熟練していないユーザは、自分自身の詳細な、パーソナライズされた仮想コピーを作成できる。
PINAは完全なスキャンを必要としないし、人間の大規模なデータセットから事前学習する必要もない。
この設定での完全なアバターの学習は、ノイズが多く不完全な深度観測しかできないため困難である(すなわち、フレームごとの身体の部分的な視界のみ)。
正準空間で定義されるポーズ条件付暗黙面と変形場を介して形状と非剛性変形を学習する手法を提案する。
これにより、すべての部分的な観測を単一の一貫した正準表現に融合することができる。
fusionはポーズ、形状、スキンのパラメータに対するグローバル最適化問題として定式化されている。
この方法では、さまざまな人や服装スタイルで、本物のノイズの多いRGB-Dシーケンスからニューラルアバターを学習することができる。
関連論文リスト
- NECA: Neural Customizable Human Avatar [36.69012172745299]
モノクラービデオやスパースビュービデオから多目的な人間の表現を学習する手法であるNECAを紹介する。
我々のアプローチの中核は、補完的な双対空間で人間を表現し、幾何学、アルベド、シャドー、および外部照明の非絡み合った神経場を予測することである。
論文 参考訳(メタデータ) (2024-03-15T14:23:06Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - AniPixel: Towards Animatable Pixel-Aligned Human Avatar [65.7175527782209]
AniPixelは、アニマタブルで一般化可能なヒトアバター再構成法である。
本研究では, 骨格変形に基づく神経スキンフィールドを提案し, 標的-カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カ
実験では、AniPixelは最先端の手法よりも優れた新しいポーズのアニメーション結果を提供しながら、同等の斬新なビューをレンダリングしている。
論文 参考訳(メタデータ) (2023-02-07T11:04:14Z) - ARAH: Animatable Volume Rendering of Articulated Human SDFs [37.48271522183636]
本研究では, 分布外ポーズによく適応する詳細な形状の, アニマタブルな衣服付きアバターを作成するモデルを提案する。
提案アルゴリズムは,未知のポーズをよく一般化しながら,効率的な点サンプリングと正確な点正準化を実現する。
本手法は, アニマタブルアバターを作成しながら, 幾何と外観再構成の最先端性能を実現する。
論文 参考訳(メタデータ) (2022-10-18T17:56:59Z) - I M Avatar: Implicit Morphable Head Avatars from Videos [68.13409777995392]
モノクロビデオから暗黙の頭部アバターを学習するための新しい手法であるIMavatarを提案する。
従来の3DMMによるきめ細かい制御機構に着想を得て, 学習用ブレンドサップとスキンフィールドによる表現・ポーズ関連変形を表現した。
本手法は,最先端の手法と比較して,幾何性を改善し,より完全な表現空間をカバーできることを定量的かつ定性的に示す。
論文 参考訳(メタデータ) (2021-12-14T15:30:32Z) - Animatable Neural Radiance Fields from Monocular RGB Video [72.6101766407013]
単眼ビデオからの詳細な人体アバター作成のためのアニマタブル神経放射場について述べる。
我々のアプローチは、明示的なポーズ誘導変形を導入することで、人間の動きを伴う動的シーンに神経放射場を拡大する。
実験の結果, 提案手法は, 1) 質の高い細部を持つ暗黙の人間の形状と外観の復元, 2) 任意の視点からの人間の写真リアルなレンダリング, 3) 任意のポーズを持つ人間のアニメーションを実現する。
論文 参考訳(メタデータ) (2021-06-25T13:32:23Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。