論文の概要: AvatarCap: Animatable Avatar Conditioned Monocular Human Volumetric
Capture
- arxiv url: http://arxiv.org/abs/2207.02031v1
- Date: Tue, 5 Jul 2022 13:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 14:53:25.697641
- Title: AvatarCap: Animatable Avatar Conditioned Monocular Human Volumetric
Capture
- Title(参考訳): アバターキャップ:アバター条件付き単眼容積キャプチャー
- Authors: Zhe Li, Zerong Zheng, Hongwen Zhang, Chaonan Ji, Yebin Liu
- Abstract要約: AvatarCapは、目に見える領域と見えない領域の両方で高忠実な再構築のために、キャプチャパイプラインにアニマタブルなアバターを導入する、新しいフレームワークである。
本手法は, 画像観察とアバターの両方からの情報を統合し, 高忠実度3次元テクスチャモデルを視認性に関係なく動的に再構成する。
- 参考スコア(独自算出の注目度): 36.10436374741757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the ill-posed problem caused by partial observations in monocular
human volumetric capture, we present AvatarCap, a novel framework that
introduces animatable avatars into the capture pipeline for high-fidelity
reconstruction in both visible and invisible regions. Our method firstly
creates an animatable avatar for the subject from a small number (~20) of 3D
scans as a prior. Then given a monocular RGB video of this subject, our method
integrates information from both the image observation and the avatar prior,
and accordingly recon-structs high-fidelity 3D textured models with dynamic
details regardless of the visibility. To learn an effective avatar for
volumetric capture from only few samples, we propose GeoTexAvatar, which
leverages both geometry and texture supervisions to constrain the
pose-dependent dynamics in a decomposed implicit manner. An avatar-conditioned
volumetric capture method that involves a canonical normal fusion and a
reconstruction network is further proposed to integrate both image observations
and avatar dynamics for high-fidelity reconstruction in both observed and
invisible regions. Overall, our method enables monocular human volumetric
capture with detailed and pose-dependent dynamics, and the experiments show
that our method outperforms state of the art. Code is available at
https://github.com/lizhe00/AvatarCap.
- Abstract(参考訳): そこで本研究では,可視領域と可視領域の両方において,高忠実な再構成を行うために,アニメーション可能なアバターをキャプチャパイプラインに導入する新しいフレームワークであるアバターキャップを提案する。
本手法は,まず3dスキャンの少ない数 (~20) から被写体に対するアニメーション可能なアバターを予め作成する。
そして,本課題の単眼rgb映像を与えられた場合,画像観察とアバターからの情報を予め統合し,視認性によらず高忠実な3dテクスチャモデルとダイナミックディテールを再構成する。
テクスチャバタール(geotexavatar)は,形状とテクスチャの両方の監督を利用して,ポーズ依存のダイナミクスを分解的かつ暗黙的に制約する。
標準核融合と再構成ネットワークを含むアバター条件付き体積捕獲法を提案し, 観測領域と観測領域の両方で高忠実度再構成を行うために, 画像観察とアバターダイナミックスを統合した。
概して,本手法は,細部およびポーズ依存のダイナミックスを用いた単眼的ヒト容積キャプチャを可能にし,実験により,本手法が芸術の状態を上回ることを示した。
コードはhttps://github.com/lizhe00/AvatarCapで入手できる。
関連論文リスト
- NPGA: Neural Parametric Gaussian Avatars [46.52887358194364]
マルチビュー映像記録から高忠実度制御可能なアバターを作成するためのデータ駆動方式を提案する。
我々は,高効率なレンダリングのための3次元ガウススプラッティングの手法を構築し,点雲のトポロジカルな柔軟性を継承する。
提案手法をNeRSembleデータセット上で評価し,NPGAが従来の自己再現タスクの2.6PSNRよりも有意に優れていたことを示す。
論文 参考訳(メタデータ) (2024-05-29T17:58:09Z) - HR Human: Modeling Human Avatars with Triangular Mesh and High-Resolution Textures from Videos [52.23323966700072]
本研究では,モノクロ映像から高精細な物理材料テクスチャとメッシュを付加したアバターの取得のための枠組みを提案する。
本手法では,モノクロ映像からの情報を組み合わせて仮想多視点画像の合成を行う新しい情報融合方式を提案する。
実験により, 提案手法は, 高忠実度で従来の表現よりも優れており, この明示的な結果は共通三角形への展開をサポートすることが示された。
論文 参考訳(メタデータ) (2024-05-18T11:49:09Z) - GPAvatar: Generalizable and Precise Head Avatar from Image(s) [71.555405205039]
GPAvatarは、1つの前方パスで1つまたは複数の画像から3Dヘッドアバターを再構築するフレームワークである。
提案手法は,忠実なアイデンティティ再構築,正確な表現制御,多視点一貫性を実現する。
論文 参考訳(メタデータ) (2024-01-18T18:56:34Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - MonoGaussianAvatar: Monocular Gaussian Point-based Head Avatar [44.125711148560605]
モノガウスアバター(MonoGaussian Avatar)は、3次元ガウス点表現とガウス変形場を利用する新しいアプローチである。
実験により, 従来手法の最先端化を図り, 提案手法の優れた性能を実証した。
論文 参考訳(メタデータ) (2023-12-07T18:59:31Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z) - HAVE-FUN: Human Avatar Reconstruction from Few-Shot Unconstrained Images [33.298962236215964]
数枚の写真アルバムからのヒトアバターの復元について検討した。
動的データを扱うために,深行テトラヘドラとスキン機構を統合する。
私たちのフレームワークはHaveFunと呼ばれ、アバターの再構築、レンダリング、アニメーションを実行できます。
論文 参考訳(メタデータ) (2023-11-27T10:01:31Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。