論文の概要: RANA: Relightable Articulated Neural Avatars
- arxiv url: http://arxiv.org/abs/2212.03237v1
- Date: Tue, 6 Dec 2022 18:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 17:16:55.250453
- Title: RANA: Relightable Articulated Neural Avatars
- Title(参考訳): RANA: 楽しい人工神経アバター
- Authors: Umar Iqbal, Akin Caliskan, Koki Nagano, Sameh Khamis, Pavlo Molchanov,
Jan Kautz
- Abstract要約: 本稿では,ヒトの光合成のための光合成アバターであるRANAを提案する。
モノクラーRGBビデオの幾何学、テクスチャ、照明環境を両立させながら、人間をモデル化する新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 83.60081895984634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose RANA, a relightable and articulated neural avatar for the
photorealistic synthesis of humans under arbitrary viewpoints, body poses, and
lighting. We only require a short video clip of the person to create the avatar
and assume no knowledge about the lighting environment. We present a novel
framework to model humans while disentangling their geometry, texture, and also
lighting environment from monocular RGB videos. To simplify this otherwise
ill-posed task we first estimate the coarse geometry and texture of the person
via SMPL+D model fitting and then learn an articulated neural representation
for photorealistic image generation. RANA first generates the normal and albedo
maps of the person in any given target body pose and then uses spherical
harmonics lighting to generate the shaded image in the target lighting
environment. We also propose to pretrain RANA using synthetic images and
demonstrate that it leads to better disentanglement between geometry and
texture while also improving robustness to novel body poses. Finally, we also
present a new photorealistic synthetic dataset, Relighting Humans, to
quantitatively evaluate the performance of the proposed approach.
- Abstract(参考訳): 我々は、任意の視点、身体のポーズ、照明の下での人間のフォトリアリスティックな合成のための、快活で明瞭な神経アバターranaを提案する。
アバターを作り、照明環境について何の知識も持たないよう、人の短いビデオクリップだけを必要とします。
モノクラーRGBビデオの幾何学、テクスチャ、照明環境を両立させながら、人間をモデル化する新しい枠組みを提案する。
まず、smpl+dモデルフィッティングによって人物の粗い形状とテクスチャを推定し、次に、フォトリアリスティックな画像生成のための明瞭なニューラルネットワーク表現を学習する。
RANAはまず、対象物ポーズ中の人物の正常およびアルベドマップを生成し、次いで球面調和照明を用いて目標照明環境における陰影画像を生成する。
また, 合成画像を用いたRANAの事前訓練を行い, 形状とテクスチャの絡み合いが良くなり, 新規なボディポーズの堅牢性も向上することを示した。
最後に, 提案手法の性能を定量的に評価するために, 新たなフォトリアリスティック合成データセットrelighting humanを提案する。
関連論文リスト
- UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - NECA: Neural Customizable Human Avatar [36.69012172745299]
モノクラービデオやスパースビュービデオから多目的な人間の表現を学習する手法であるNECAを紹介する。
我々のアプローチの中核は、補完的な双対空間で人間を表現し、幾何学、アルベド、シャドー、および外部照明の非絡み合った神経場を予測することである。
論文 参考訳(メタデータ) (2024-03-15T14:23:06Z) - Relightable and Animatable Neural Avatars from Videos [14.091229306680697]
本研究では, 可照性でアニマタブルなニューラルアバターを作成する方法を提案する。
鍵となる課題は、幾何学、衣服の素材、照明を解体することである。
合成および実データを用いた実験により,本手法は高品質な幾何を再構成することを示した。
論文 参考訳(メタデータ) (2023-12-20T09:39:55Z) - SEEAvatar: Photorealistic Text-to-3D Avatar Generation with Constrained
Geometry and Appearance [37.85026590250023]
テキストから光リアルな3Dアバターを生成する方法であるSEEAvatarを提案する。
幾何学において、最適化されたアバターをテンプレートアバターで適切に大域的に制限することを提案する。
外観生成には、プロンプトエンジニアリングによって強化された拡散モデルを用いて物理ベースのレンダリングパイプラインを誘導する。
論文 参考訳(メタデータ) (2023-12-13T14:48:35Z) - Novel View Synthesis of Humans using Differentiable Rendering [50.57718384229912]
我々は新しいポーズで人々の新しい視点を合成するための新しいアプローチを提案する。
我々の合成はヒトの骨格構造を表す拡散ガウス原始体を用いる。
これらのプリミティブをレンダリングすると、高次元の潜像が得られ、デコーダネットワークによってRGBイメージに変換される。
論文 参考訳(メタデータ) (2023-03-28T10:48:33Z) - DINAR: Diffusion Inpainting of Neural Textures for One-Shot Human
Avatars [7.777410338143783]
本稿では,1枚のRGB画像からリアルなフルボディアバターを作成するためのアプローチを提案する。
本手法は, SMPL-Xボディーモデルと組み合わせた神経テクスチャを用いて, アバターのフォトリアリスティックな品質を実現する。
実験では、最新のレンダリング品質と、新しいポーズや視点への優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-03-16T15:04:10Z) - Learning to Relight Portrait Images via a Virtual Light Stage and
Synthetic-to-Real Adaptation [76.96499178502759]
Relightingは、イメージ内の人物を、ターゲットの照明のある環境に現れたかのように再照らすことを目的としている。
最近の手法は、高品質な結果を得るためにディープラーニングに依存している。
そこで本研究では,光ステージを必要とせずに,SOTA(State-of-the-art Relighting Method)と同等に動作可能な新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T17:15:58Z) - Geometry-aware Single-image Full-body Human Relighting [37.381122678376805]
単一イメージの人間のリライティングは、入力画像をアルベド、形状、照明に分解することで、新たな照明条件下でターゲットの人間をリライティングすることを目的としている。
それまでの方法は、アルベドと照明の絡み合いと、硬い影の欠如に悩まされていた。
我々のフレームワークは、難易度の高い照明条件下で、キャストシャドウのような光現実性の高い高周波影を生成することができる。
論文 参考訳(メタデータ) (2022-07-11T10:21:02Z) - EgoRenderer: Rendering Human Avatars from Egocentric Camera Images [87.96474006263692]
EgoRendererは、ウェアラブルでエゴ中心の魚眼カメラで捉えた人の全身神経アバターをレンダリングするシステムである。
このようなエゴセントリックなイメージからフルボディのアバターをレンダリングすることは、トップダウンのビューと大きな歪みのために、ユニークな課題を生んでいる。
レンダリング処理をテクスチャ合成,ポーズ構築,ニューラルイメージ変換など,いくつかのステップに分解することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2021-11-24T18:33:02Z) - Neural Re-Rendering of Humans from a Single Image [80.53438609047896]
本稿では,新しいユーザ定義のポーズと視点の下での人間のニューラルリレンダリング手法を提案する。
私たちのアルゴリズムは、単一の画像から再構築できるパラメトリックメッシュとして体ポーズと形状を表します。
論文 参考訳(メタデータ) (2021-01-11T18:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。