論文の概要: AniPixel: Towards Animatable Pixel-Aligned Human Avatar
- arxiv url: http://arxiv.org/abs/2302.03397v2
- Date: Tue, 17 Oct 2023 16:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 22:42:35.212432
- Title: AniPixel: Towards Animatable Pixel-Aligned Human Avatar
- Title(参考訳): AniPixel: Animatable Pixel対応アバターを目指して
- Authors: Jinlong Fan and Jing Zhang and Zhi Hou and Dacheng Tao
- Abstract要約: AniPixelは、アニマタブルで一般化可能なヒトアバター再構成法である。
本研究では, 骨格変形に基づく神経スキンフィールドを提案し, 標的-カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カ
実験では、AniPixelは最先端の手法よりも優れた新しいポーズのアニメーション結果を提供しながら、同等の斬新なビューをレンダリングしている。
- 参考スコア(独自算出の注目度): 65.7175527782209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although human reconstruction typically results in human-specific avatars,
recent 3D scene reconstruction techniques utilizing pixel-aligned features show
promise in generalizing to new scenes. Applying these techniques to human
avatar reconstruction can result in a volumetric avatar with generalizability
but limited animatability due to rendering only being possible for static
representations. In this paper, we propose AniPixel, a novel animatable and
generalizable human avatar reconstruction method that leverages pixel-aligned
features for body geometry prediction and RGB color blending. Technically, to
align the canonical space with the target space and the observation space, we
propose a bidirectional neural skinning field based on skeleton-driven
deformation to establish the target-to-canonical and canonical-to-observation
correspondences. Then, we disentangle the canonical body geometry into a
normalized neutral-sized body and a subject-specific residual for better
generalizability. As the geometry and appearance are closely related, we
introduce pixel-aligned features to facilitate the body geometry prediction and
detailed surface normals to reinforce the RGB color blending. We also devise a
pose-dependent and view direction-related shading module to represent the local
illumination variance. Experiments show that AniPixel renders comparable novel
views while delivering better novel pose animation results than
state-of-the-art methods.
- Abstract(参考訳): 人間の再現は通常、人間特有のアバターとなるが、最近の3Dシーン再構成技術は、新しいシーンを一般化する可能性を示している。
これらの手法を人間のアバター再構成に適用することで、一般化性を持つ体積アバターが得られるが、静的表現でしかレンダリングできないため、アニマタビリティが制限される。
本稿では,人体形状予測とrgbカラーブレンドに画素整合機能を利用する,新しいアニメーション可能で汎用的なアバター再構成手法であるanipixelを提案する。
技術的には、標準空間を目標空間と観測空間に整合させるため、骨格駆動型変形に基づく双方向ニューラルスキンフィールドを提案し、目標-標準および標準-観測対応を確立する。
次に,正準体形状を正規化中型体と主観特異残差に分解し,より一般化性を高める。
形状と外観が密接な関係にあるため,RGB色ブレンディングの強化のために,体形状予測や表面の詳細な正規化を容易にする画素アライメント機能を導入する。
また,局所照明のばらつきを表現するために,姿勢依存および方向関連シェーディングモジュールを考案する。
実験では、AniPixelは最先端の手法よりも優れた新しいポーズのアニメーション結果を提供しながら、同等の斬新なビューをレンダリングしている。
関連論文リスト
- UVA: Towards Unified Volumetric Avatar for View Synthesis, Pose
rendering, Geometry and Texture Editing [83.0396740127043]
テクスチャとテクスチャの両方を局所的に編集できるtextbfUnified textbfVolumetric textbfAvatar (textbfUVA) という新しいアプローチを提案する。
UVAは、各観測点をスキン運動場を用いて標準空間に変換し、別々の神経場における幾何学とテクスチャを表現する。
複数の人体アバターの実験により、UVAが新しいビュー合成と新しいポーズレンダリングを実現していることが示された。
論文 参考訳(メタデータ) (2023-04-14T07:39:49Z) - One-shot Implicit Animatable Avatars with Model-based Priors [31.385051428938585]
ELICITは、1つの画像から人間固有の神経放射場を学習する新しい方法である。
ELICITは、単一のイメージしか利用できない場合、アバター生成の強力なベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-05T18:24:06Z) - ARAH: Animatable Volume Rendering of Articulated Human SDFs [37.48271522183636]
本研究では, 分布外ポーズによく適応する詳細な形状の, アニマタブルな衣服付きアバターを作成するモデルを提案する。
提案アルゴリズムは,未知のポーズをよく一般化しながら,効率的な点サンプリングと正確な点正準化を実現する。
本手法は, アニマタブルアバターを作成しながら, 幾何と外観再構成の最先端性能を実現する。
論文 参考訳(メタデータ) (2022-10-18T17:56:59Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - PINA: Learning a Personalized Implicit Neural Avatar from a Single RGB-D
Video Sequence [60.46092534331516]
本稿では,短いRGB-Dシーケンスからパーソナライズされたインシシットニューラルアバター(PINA)を学習する方法を提案する。
PINAは完全なスキャンを必要としないし、人間の大規模なデータセットから事前の学習も必要ではない。
ポーズ条件付暗示面と変形場を用いて形状と非剛性変形を学習する手法を提案する。
論文 参考訳(メタデータ) (2022-03-03T15:04:55Z) - I M Avatar: Implicit Morphable Head Avatars from Videos [68.13409777995392]
モノクロビデオから暗黙の頭部アバターを学習するための新しい手法であるIMavatarを提案する。
従来の3DMMによるきめ細かい制御機構に着想を得て, 学習用ブレンドサップとスキンフィールドによる表現・ポーズ関連変形を表現した。
本手法は,最先端の手法と比較して,幾何性を改善し,より完全な表現空間をカバーできることを定量的かつ定性的に示す。
論文 参考訳(メタデータ) (2021-12-14T15:30:32Z) - Animatable Neural Radiance Fields from Monocular RGB Video [72.6101766407013]
単眼ビデオからの詳細な人体アバター作成のためのアニマタブル神経放射場について述べる。
我々のアプローチは、明示的なポーズ誘導変形を導入することで、人間の動きを伴う動的シーンに神経放射場を拡大する。
実験の結果, 提案手法は, 1) 質の高い細部を持つ暗黙の人間の形状と外観の復元, 2) 任意の視点からの人間の写真リアルなレンダリング, 3) 任意のポーズを持つ人間のアニメーションを実現する。
論文 参考訳(メタデータ) (2021-06-25T13:32:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。