論文の概要: AniPixel: Towards Animatable Pixel-Aligned Human Avatar
- arxiv url: http://arxiv.org/abs/2302.03397v1
- Date: Tue, 7 Feb 2023 11:04:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 16:32:36.041280
- Title: AniPixel: Towards Animatable Pixel-Aligned Human Avatar
- Title(参考訳): AniPixel: Animatable Pixel対応アバターを目指して
- Authors: Jinlong Fan and Jing Zhang and Zhi Hou and Dacheng Tao
- Abstract要約: AniPixelは、アニマタブルで一般化可能なヒトアバター再構成法である。
本研究では, 骨格変形に基づく神経スキンフィールドを提案し, 標的-カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニカル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カノニアル・カ
実験では、AniPixelは最先端の手法よりも優れた新しいポーズのアニメーション結果を提供しながら、同等の斬新なビューをレンダリングしています。
- 参考スコア(独自算出の注目度): 77.32632236241925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural radiance field using pixel-aligned features can render photo-realistic
novel views. However, when pixel-aligned features are directly introduced to
human avatar reconstruction, the rendering can only be conducted for still
humans, rather than animatable avatars. In this paper, we propose AniPixel, a
novel animatable and generalizable human avatar reconstruction method that
leverages pixel-aligned features for body geometry prediction and RGB color
blending. Technically, to align the canonical space with the target space and
the observation space, we propose a bidirectional neural skinning field based
on skeleton-driven deformation to establish the target-to-canonical and
canonical-to-observation correspondences. Then, we disentangle the canonical
body geometry into a normalized neutral-sized body and a subject-specific
residual for better generalizability. As the geometry and appearance are
closely related, we introduce pixel-aligned features to facilitate the body
geometry prediction and detailed surface normals to reinforce the RGB color
blending. Moreover, we devise a pose-dependent and view direction-related
shading module to represent the local illumination variance. Experiments show
that our AniPixel renders comparable novel views while delivering better novel
pose animation results than state-of-the-art methods. The code will be
released.
- Abstract(参考訳): ピクセルアライメント機能を用いたニューラルラミアンスフィールドは、フォトリアリスティックなノベルビューをレンダリングできる。
しかし、人間のアバターの再構築に直接ピクセルアライメント機能が導入された場合、このレンダリングはアニメーション可能なアバターではなく、静止した人間でしか実行できない。
本稿では,人体形状予測とrgbカラーブレンドに画素整合機能を利用する,新しいアニメーション可能で汎用的なアバター再構成手法であるanipixelを提案する。
技術的には、標準空間を目標空間と観測空間に整合させるため、骨格駆動型変形に基づく双方向ニューラルスキンフィールドを提案し、目標-標準および標準-観測対応を確立する。
次に,正準体形状を正規化中型体と主観特異残差に分解し,より一般化性を高める。
形状と外観が密接な関係にあるため,RGB色ブレンディングの強化のために,体形状予測や表面の詳細な正規化を容易にする画素アライメント機能を導入する。
さらに,局所照明のばらつきを表現するために,ポーズ依存および視野方向関連シェーディングモジュールを考案する。
実験の結果、AniPixelは最先端の手法よりも新しいポーズのアニメーション結果を提供しながら、同等の斬新なビューをレンダリングしています。
コードはリリースされます。
関連論文リスト
- UVA: Towards Unified Volumetric Avatar for View Synthesis, Pose
rendering, Geometry and Texture Editing [83.0396740127043]
テクスチャとテクスチャの両方を局所的に編集できるtextbfUnified textbfVolumetric textbfAvatar (textbfUVA) という新しいアプローチを提案する。
UVAは、各観測点をスキン運動場を用いて標準空間に変換し、別々の神経場における幾何学とテクスチャを表現する。
複数の人体アバターの実験により、UVAが新しいビュー合成と新しいポーズレンダリングを実現していることが示された。
論文 参考訳(メタデータ) (2023-04-14T07:39:49Z) - One-shot Implicit Animatable Avatars with Model-based Priors [31.385051428938585]
ELICITは、1つの画像から人間固有の神経放射場を学習する新しい方法である。
ELICITは、単一のイメージしか利用できない場合、アバター生成の強力なベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-05T18:24:06Z) - ARAH: Animatable Volume Rendering of Articulated Human SDFs [37.48271522183636]
本研究では, 分布外ポーズによく適応する詳細な形状の, アニマタブルな衣服付きアバターを作成するモデルを提案する。
提案アルゴリズムは,未知のポーズをよく一般化しながら,効率的な点サンプリングと正確な点正準化を実現する。
本手法は, アニマタブルアバターを作成しながら, 幾何と外観再構成の最先端性能を実現する。
論文 参考訳(メタデータ) (2022-10-18T17:56:59Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - PINA: Learning a Personalized Implicit Neural Avatar from a Single RGB-D
Video Sequence [60.46092534331516]
本稿では,短いRGB-Dシーケンスからパーソナライズされたインシシットニューラルアバター(PINA)を学習する方法を提案する。
PINAは完全なスキャンを必要としないし、人間の大規模なデータセットから事前の学習も必要ではない。
ポーズ条件付暗示面と変形場を用いて形状と非剛性変形を学習する手法を提案する。
論文 参考訳(メタデータ) (2022-03-03T15:04:55Z) - I M Avatar: Implicit Morphable Head Avatars from Videos [68.13409777995392]
モノクロビデオから暗黙の頭部アバターを学習するための新しい手法であるIMavatarを提案する。
従来の3DMMによるきめ細かい制御機構に着想を得て, 学習用ブレンドサップとスキンフィールドによる表現・ポーズ関連変形を表現した。
本手法は,最先端の手法と比較して,幾何性を改善し,より完全な表現空間をカバーできることを定量的かつ定性的に示す。
論文 参考訳(メタデータ) (2021-12-14T15:30:32Z) - Animatable Neural Radiance Fields from Monocular RGB Video [72.6101766407013]
単眼ビデオからの詳細な人体アバター作成のためのアニマタブル神経放射場について述べる。
我々のアプローチは、明示的なポーズ誘導変形を導入することで、人間の動きを伴う動的シーンに神経放射場を拡大する。
実験の結果, 提案手法は, 1) 質の高い細部を持つ暗黙の人間の形状と外観の復元, 2) 任意の視点からの人間の写真リアルなレンダリング, 3) 任意のポーズを持つ人間のアニメーションを実現する。
論文 参考訳(メタデータ) (2021-06-25T13:32:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。