論文の概要: GETAvatar: Generative Textured Meshes for Animatable Human Avatars
- arxiv url: http://arxiv.org/abs/2310.02714v1
- Date: Wed, 4 Oct 2023 10:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 15:42:18.344217
- Title: GETAvatar: Generative Textured Meshes for Animatable Human Avatars
- Title(参考訳): getavatar: 想像可能な人間のアバターのための生成的なテクスチャメッシュ
- Authors: Xuanmeng Zhang, Jianfeng Zhang, Rohan Chacko, Hongyi Xu, Guoxian Song,
Yi Yang, Jiashi Feng
- Abstract要約: 高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
- 参考スコア(独自算出の注目度): 69.56959932421057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of 3D-aware full-body human generation, aiming at
creating animatable human avatars with high-quality textures and geometries.
Generally, two challenges remain in this field: i) existing methods struggle to
generate geometries with rich realistic details such as the wrinkles of
garments; ii) they typically utilize volumetric radiance fields and neural
renderers in the synthesis process, making high-resolution rendering
non-trivial. To overcome these problems, we propose GETAvatar, a Generative
model that directly generates Explicit Textured 3D meshes for animatable human
Avatar, with photo-realistic appearance and fine geometric details.
Specifically, we first design an articulated 3D human representation with
explicit surface modeling, and enrich the generated humans with realistic
surface details by learning from the 2D normal maps of 3D scan data. Second,
with the explicit mesh representation, we can use a rasterization-based
renderer to perform surface rendering, allowing us to achieve high-resolution
image generation efficiently. Extensive experiments demonstrate that GETAvatar
achieves state-of-the-art performance on 3D-aware human generation both in
appearance and geometry quality. Notably, GETAvatar can generate images at
512x512 resolution with 17FPS and 1024x1024 resolution with 14FPS, improving
upon previous methods by 2x. Our code and models will be available.
- Abstract(参考訳): 高品質なテクスチャとジオメトリーを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
一般的にこの分野では2つの課題が残っている。
一 衣服のしわ等の写実的な詳細が豊かな測地線の作成に苦しむ既存の方法
ii) 通常、合成プロセスではボリュームラミアンスフィールドとニューラルレンダラーを使用し、高分解能レンダリングは自明ではない。
これらの問題を克服するため,getavatar を提案する。getavatar は,映像化可能なアバターのテクスチャ付き3dメッシュを直接生成する生成モデルであり,フォトリアリスティックな外観と詳細な幾何学的詳細を持つ。
具体的には,3次元スキャンデータの2次元正規マップから学習することにより,明瞭な表面モデリングによる明瞭な3次元表現をまず設計し,生成された人間をリアルな表面詳細で豊かにする。
第二に、明示的なメッシュ表現により、ラスタライズベースのレンダラーを使用して表面レンダリングを行い、高解像度の画像生成を効率的に行うことができる。
広汎な実験により,GETAvatarは外観と幾何学的品質の両方において,3次元認識された人為的生成に対して最先端の性能を達成することが示された。
特に、GETAvatarは17FPSの512x512解像度と14FPSの1024x1024解像度で画像を生成でき、以前の方法よりも2倍改善されている。
コードとモデルが利用可能になります。
関連論文リスト
- UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - HumanGen: Generating Human Radiance Fields with Explicit Priors [19.5166920467636]
HumanGenは、詳細な幾何学とリアルなフリービューレンダリングを備えた、新しい3Dヒューマンジェネレーションスキームである。
アンカーイメージ」の設計を通じて,3次元世代と2次元ジェネレータと3次元再構成器の様々な先行概念を明示的に結合する。
論文 参考訳(メタデータ) (2022-12-10T15:27:48Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - 3D-Aware Semantic-Guided Generative Model for Human Synthesis [67.86621343494998]
本稿では,人間の画像合成のための3D-SGAN(Semantic-Guided Generative Model)を提案する。
DeepFashionデータセットに関する我々の実験は、3D-SGANが最新のベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-02T17:10:53Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - AvatarMe: Realistically Renderable 3D Facial Reconstruction
"in-the-wild" [105.28776215113352]
AvatarMe は、1つの "in-the-wild" 画像から高精細度で光リアルな3D顔を再構成できる最初の方法である。
6K解像度の3D画像を1枚の低解像度画像から再現する。
論文 参考訳(メタデータ) (2020-03-30T22:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。