論文の概要: HumanGen: Generating Human Radiance Fields with Explicit Priors
- arxiv url: http://arxiv.org/abs/2212.05321v1
- Date: Sat, 10 Dec 2022 15:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 16:30:55.964179
- Title: HumanGen: Generating Human Radiance Fields with Explicit Priors
- Title(参考訳): HumanGen: 明示的な優先順位で人間の放射界を生成する
- Authors: Suyi Jiang, Haoran Jiang, Ziyu Wang, Haimin Luo, Wenzheng Chen, Lan Xu
- Abstract要約: HumanGenは、詳細な幾何学とリアルなフリービューレンダリングを備えた、新しい3Dヒューマンジェネレーションスキームである。
アンカーイメージ」の設計を通じて,3次元世代と2次元ジェネレータと3次元再構成器の様々な先行概念を明示的に結合する。
- 参考スコア(独自算出の注目度): 19.5166920467636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the tremendous progress of 3D GANs for generating
view-consistent radiance fields with photo-realism. Yet, high-quality
generation of human radiance fields remains challenging, partially due to the
limited human-related priors adopted in existing methods. We present HumanGen,
a novel 3D human generation scheme with detailed geometry and
$\text{360}^{\circ}$ realistic free-view rendering. It explicitly marries the
3D human generation with various priors from the 2D generator and 3D
reconstructor of humans through the design of "anchor image". We introduce a
hybrid feature representation using the anchor image to bridge the latent space
of HumanGen with the existing 2D generator. We then adopt a pronged design to
disentangle the generation of geometry and appearance. With the aid of the
anchor image, we adapt a 3D reconstructor for fine-grained details synthesis
and propose a two-stage blending scheme to boost appearance generation.
Extensive experiments demonstrate our effectiveness for state-of-the-art 3D
human generation regarding geometry details, texture quality, and free-view
performance. Notably, HumanGen can also incorporate various off-the-shelf 2D
latent editing methods, seamlessly lifting them into 3D.
- Abstract(参考訳): 近年は3D GANがフォトリアリズムと相反する放射界を創出する過程が著しく進展している。
しかし、既存の手法で採用されている人間関係の優先事項が限られているため、高品質な人間の放射野の生成は依然として困難である。
詳細な幾何学と$\text{360}^{\circ}$リアルなフリービューレンダリングを備えた,新しい3次元人間生成スキームであるhumangenを提案する。
2Dジェネレータと3Dコンストラクタから「アンカーイメージ」を設計して、様々な先駆体で3D世代を明示的に結婚させる。
本稿では,人間の潜在空間と既存の2dジェネレータを橋渡しするためにアンカー画像を用いたハイブリッド特徴表現を提案する。
次に、幾何学と外観の生成を絡むように、プロングされたデザインを採用します。
このアンカー画像を用いて,細粒度合成に3次元再構成器を応用し,外観生成促進のための2段階ブレンドスキームを提案する。
広範な実験により, 形状, テクスチャ品質, フリービュー性能に関して, 最先端の3次元ヒューマンジェネレーションの有効性が実証された。
またHumanGenは、さまざまな既製の2Dラテント編集方法を組み込んで、3Dにシームレスに持ち上げることもできる。
関連論文リスト
- InceptionHuman: Controllable Prompt-to-NeRF for Photorealistic 3D Human Generation [61.62346472443454]
InceptionHumanは、異なるモードのプロンプトの組み合わせで簡単にコントロールでき、フォトリアリスティックな3D人間を生成することができるプロンプト・トゥ・NeRFフレームワークである。
InceptionHumanは、徐々に洗練されたNeRF空間内で、一貫した3Dヒューマン生成を実現する。
論文 参考訳(メタデータ) (2023-11-27T15:49:41Z) - GETAvatar: Generative Textured Meshes for Animatable Human Avatars [69.56959932421057]
高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
論文 参考訳(メタデータ) (2023-10-04T10:30:24Z) - DreamAvatar: Text-and-Shape Guided 3D Human Avatar Generation via
Diffusion Models [55.71306021041785]
高品質な3Dアバターを作成するためのテキスト・アンド・シェイプ・ガイドフレームワークであるDreamAvatarについて紹介する。
SMPLモデルを利用して、生成のための形状とポーズのガイダンスを提供する。
また、全体とズームインした3Dヘッドから計算した損失を共同で最適化し、一般的なマルチフェイス「Janus」問題を緩和する。
論文 参考訳(メタデータ) (2023-04-03T12:11:51Z) - Get3DHuman: Lifting StyleGAN-Human into a 3D Generative Model using
Pixel-aligned Reconstruction Priors [56.192682114114724]
Get3DHumanは、生成された結果のリアリズムと多様性を大幅に向上させる、新しい3Dヒューマンフレームワークである。
我々のキーとなる観察は、この3Dジェネレータは、人間の2Dジェネレータと3Dコンストラクタを通して学んだ、人間関係の先行技術から利益を得ることができるということだ。
論文 参考訳(メタデータ) (2023-02-02T15:37:46Z) - AvatarGen: A 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、様々な外観と制御可能なジオメトリーを持つ3D認識された人間の無監督世代である。
提案手法は, 高品質な外観と幾何学的モデリングにより, アニマタブルな3次元アバターを生成することができる。
シングルビュー再構成、再アニメーション、テキスト誘導合成/編集など、多くのアプリケーションに向いている。
論文 参考訳(メタデータ) (2022-11-26T15:15:45Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。