論文の概要: AG3D: Learning to Generate 3D Avatars from 2D Image Collections
- arxiv url: http://arxiv.org/abs/2305.02312v1
- Date: Wed, 3 May 2023 17:56:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 13:39:56.743728
- Title: AG3D: Learning to Generate 3D Avatars from 2D Image Collections
- Title(参考訳): AG3D:2Dイメージコレクションから3Dアバターを生成する学習
- Authors: Zijian Dong, Xu Chen, Jinlong Yang, Michael J. Black, Otmar Hilliges,
Andreas Geiger
- Abstract要約: 本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
- 参考スコア(独自算出の注目度): 96.28021214088746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While progress in 2D generative models of human appearance has been rapid,
many applications require 3D avatars that can be animated and rendered.
Unfortunately, most existing methods for learning generative models of 3D
humans with diverse shape and appearance require 3D training data, which is
limited and expensive to acquire. The key to progress is hence to learn
generative models of 3D avatars from abundant unstructured 2D image
collections. However, learning realistic and complete 3D appearance and
geometry in this under-constrained setting remains challenging, especially in
the presence of loose clothing such as dresses. In this paper, we propose a new
adversarial generative model of realistic 3D people from 2D images. Our method
captures shape and deformation of the body and loose clothing by adopting a
holistic 3D generator and integrating an efficient and flexible articulation
module. To improve realism, we train our model using multiple discriminators
while also integrating geometric cues in the form of predicted 2D normal maps.
We experimentally find that our method outperforms previous 3D- and
articulation-aware methods in terms of geometry and appearance. We validate the
effectiveness of our model and the importance of each component via systematic
ablation studies.
- Abstract(参考訳): 人間の外観の2次元生成モデルの進歩は急速に進んでいるが、多くのアプリケーションはアニメーションやレンダリングが可能な3dアバターを必要とする。
残念なことに、様々な形状と外観を持つ3D人間の生成モデルを学ぶには、3Dトレーニングデータが必要である。
進歩の鍵は、豊富な構造化されていない2D画像コレクションから3Dアバターの生成モデルを学ぶことである。
しかし、この制約の厳しい環境で現実的で完全な3Dの外観と幾何学を学ぶことは、特にドレスのようなゆるい衣服の存在下では困難である。
本稿では,2次元画像からリアルな3次元人物の対向生成モデルを提案する。
本手法は, 全身型3Dジェネレータを採用し, 効率よく柔軟な調音モジュールを組み込むことで, 体の形状と変形を捉える。
リアリズムを改善するために,複数の識別器を用いてモデルをトレーニングし,幾何学的手がかりを予測された2次元正規写像の形で統合する。
提案手法は, 従来の3次元・調音認識手法よりも幾何学的, 外観的に優れていた。
本モデルの有効性と各成分の重要性を系統的アブレーション研究により検証した。
関連論文リスト
- En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - Articulated 3D Head Avatar Generation using Text-to-Image Diffusion
Models [107.84324544272481]
多様な頭部アバターを合成する能力は、拡張現実、撮影、教育など、多くの応用に不可欠である。
テキスト誘導型3Dオブジェクト生成に関する最近の研究は、これらのニーズに対処する上で大きな可能性を秘めている。
拡散に基づく頭部アバターは,この課題に対する最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-10T19:15:32Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - AvatarGen: A 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、様々な外観と制御可能なジオメトリーを持つ3D認識された人間の無監督世代である。
提案手法は, 高品質な外観と幾何学的モデリングにより, アニマタブルな3次元アバターを生成することができる。
シングルビュー再構成、再アニメーション、テキスト誘導合成/編集など、多くのアプリケーションに向いている。
論文 参考訳(メタデータ) (2022-11-26T15:15:45Z) - EVA3D: Compositional 3D Human Generation from 2D Image Collections [27.70991135165909]
EVA3Dは2次元画像のみから学習した無条件の3次元人体生成モデルである。
詳細な形状の3D人間をサンプリングし、鐘や笛を使わずに高品質な画像(最大512x256まで)をレンダリングすることができる。
テクスチャーとテクスチャ品質の両方に関して、最先端の3Dヒューマンジェネレーション性能を実現する。
論文 参考訳(メタデータ) (2022-10-10T17:59:31Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - 3D-Aware Semantic-Guided Generative Model for Human Synthesis [67.86621343494998]
本稿では,人間の画像合成のための3D-SGAN(Semantic-Guided Generative Model)を提案する。
DeepFashionデータセットに関する我々の実験は、3D-SGANが最新のベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-02T17:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。