論文の概要: Realistic One-shot Mesh-based Head Avatars
- arxiv url: http://arxiv.org/abs/2206.08343v1
- Date: Thu, 16 Jun 2022 17:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 17:30:18.209090
- Title: Realistic One-shot Mesh-based Head Avatars
- Title(参考訳): リアルなワンショットメッシュ型ヘッドアバター
- Authors: Taras Khakhulin, Vanessa Sklyarova, Victor Lempitsky, Egor Zakharov
- Abstract要約: 本稿では,リアルなワンショットメッシュによる人間の頭部アバター作成システムROMEについて述べる。
一つの写真を用いて,人物固有の頭部メッシュと関連する神経テクスチャを推定し,局所的な測光と幾何学的詳細の両方を符号化する。
生成されたアバターはリグされ、ニューラルネットワークを使用してレンダリングすることができる。
- 参考スコア(独自算出の注目度): 7.100064936484693
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a system for realistic one-shot mesh-based human head avatars
creation, ROME for short. Using a single photograph, our model estimates a
person-specific head mesh and the associated neural texture, which encodes both
local photometric and geometric details. The resulting avatars are rigged and
can be rendered using a neural network, which is trained alongside the mesh and
texture estimators on a dataset of in-the-wild videos. In the experiments, we
observe that our system performs competitively both in terms of head geometry
recovery and the quality of renders, especially for the cross-person
reenactment. See results https://samsunglabs.github.io/rome/
- Abstract(参考訳): 本稿では,人間の頭部アバターをリアルなワンショットメッシュで生成するシステムについて述べる。
一つの写真を用いて,人物固有の頭部メッシュと関連する神経テクスチャを推定し,局所的な測光と幾何学的詳細の両方を符号化する。
得られたアバターは具体化され、ニューラルネットワークを使ってレンダリングされ、メッシュとテクスチャ推定器と共に、wildビデオのデータセット上でトレーニングされる。
実験では,頭部の幾何回復とレンダリングの品質の両面で,特に対人的再現において競合的に機能することが確認された。
結果https://samsunglabs.github.io/rome/
関連論文リスト
- Human Gaussian Splatting: Real-time Rendering of Animatable Avatars [6.629151211202684]
この研究は、マルチビュービデオから得られたフォトリアリスティックな人体アバターのリアルタイムレンダリングの問題に対処する。
3次元ガウススプラッティングに基づく最初のアニマタブルな人体モデルを提案する。
本手法は, THuman4データセットの最先端技術よりもPSNR 1.5dbBが優れていることを示す。
論文 参考訳(メタデータ) (2023-11-28T12:05:41Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - DINAR: Diffusion Inpainting of Neural Textures for One-Shot Human
Avatars [7.777410338143783]
本稿では,1枚のRGB画像からリアルなフルボディアバターを作成するためのアプローチを提案する。
本手法は, SMPL-Xボディーモデルと組み合わせた神経テクスチャを用いて, アバターのフォトリアリスティックな品質を実現する。
実験では、最新のレンダリング品質と、新しいポーズや視点への優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-03-16T15:04:10Z) - RANA: Relightable Articulated Neural Avatars [83.60081895984634]
本稿では,ヒトの光合成のための光合成アバターであるRANAを提案する。
モノクラーRGBビデオの幾何学、テクスチャ、照明環境を両立させながら、人間をモデル化する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-12-06T18:59:31Z) - Multi-NeuS: 3D Head Portraits from Single Image with Neural Implicit
Functions [70.04394678730968]
人間の頭部の3次元再構築を1つか2つの視点から提案する。
基盤となる神経アーキテクチャは、オブジェクトを学習し、モデルを一般化することである。
私たちのモデルは、100本のビデオやワンショットの3Dスキャンに、斬新な頭を収めることができます。
論文 参考訳(メタデータ) (2022-09-07T21:09:24Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - Neural Head Avatars from Monocular RGB Videos [0.0]
アニマタブルヒトアバターの表面形状と外観を明示的にモデル化した新しいニューラル表現を提案する。
我々の表現は、様々な表現とビューを特徴とする単眼のRGBポートレートビデオから学べる。
論文 参考訳(メタデータ) (2021-12-02T19:01:05Z) - EgoRenderer: Rendering Human Avatars from Egocentric Camera Images [87.96474006263692]
EgoRendererは、ウェアラブルでエゴ中心の魚眼カメラで捉えた人の全身神経アバターをレンダリングするシステムである。
このようなエゴセントリックなイメージからフルボディのアバターをレンダリングすることは、トップダウンのビューと大きな歪みのために、ユニークな課題を生んでいる。
レンダリング処理をテクスチャ合成,ポーズ構築,ニューラルイメージ変換など,いくつかのステップに分解することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2021-11-24T18:33:02Z) - StylePeople: A Generative Model of Fullbody Human Avatars [59.42166744151461]
パラメトリックメッシュに基づく体モデルとニューラルテクスチャを組み合わせた,新しいタイプのフルボディヒトアバターを提案する。
このようなアバターは衣服や髪型をうまくモデル化できるため、メッシュベースのアプローチでは問題となる。
そこで我々は,画像や映像のデータセットから学習できるアバターの生成モデルを提案する。
論文 参考訳(メタデータ) (2021-04-16T20:43:11Z) - Fast Bi-layer Neural Synthesis of One-Shot Realistic Head Avatars [16.92378994798985]
本稿では,1枚の写真から頭部アバターを生成するニューラルネットワークを提案する。
視覚的品質と速度の観点から,我々のシステムと最先端システムの類似性を比較した。
論文 参考訳(メタデータ) (2020-08-24T03:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。