論文の概要: 3DHumanGAN: 3D-Aware Human Image Generation with 3D Pose Mapping
- arxiv url: http://arxiv.org/abs/2212.07378v2
- Date: Sun, 24 Sep 2023 22:05:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 04:21:34.366196
- Title: 3DHumanGAN: 3D-Aware Human Image Generation with 3D Pose Mapping
- Title(参考訳): 3DHumanGAN:3Dポッドマッピングによる人体画像生成
- Authors: Zhuoqian Yang, Shikai Li, Wayne Wu, Bo Dai
- Abstract要約: 3DHumanGAN(3DHumanGAN)は、全身の人間の写実的な画像を合成する3D対応の対向ネットワークである。
本稿では,3次元ポーズマッピングネットワークによって2次元畳み込みバックボーンを変調する新しいジェネレータアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 37.14866512377012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present 3DHumanGAN, a 3D-aware generative adversarial network that
synthesizes photorealistic images of full-body humans with consistent
appearances under different view-angles and body-poses. To tackle the
representational and computational challenges in synthesizing the articulated
structure of human bodies, we propose a novel generator architecture in which a
2D convolutional backbone is modulated by a 3D pose mapping network. The 3D
pose mapping network is formulated as a renderable implicit function
conditioned on a posed 3D human mesh. This design has several merits: i) it
leverages the strength of 2D GANs to produce high-quality images; ii) it
generates consistent images under varying view-angles and poses; iii) the model
can incorporate the 3D human prior and enable pose conditioning. Project page:
https://3dhumangan.github.io/.
- Abstract(参考訳): 3DHumanGANは、視角と体の位置の異なる、一貫した外見を持つフルボディヒトの光現実像を合成する3D認識対向ネットワークである。
人体の調音構造を合成する上での表現的および計算的課題に対処するために,3次元ポーズマッピングネットワークによって2次元畳み込みバックボーンを変調する新しいジェネレータアーキテクチャを提案する。
3Dポーズマッピングネットワークは、3D人間のメッシュ上に条件付けられたレンダリング可能な暗黙の関数として定式化される。
このデザインにはいくつかのメリットがあります
一 2d ganの強度を利用して高品質な画像を作成すること。
二 異なる視野角及びポーズで一貫した画像を生成すること。
三 モデルは、3d人間を予め組み込んで、ポーズコンディショニングをすることができる。
プロジェクトページ: https://3dhumangan.github.io/
関連論文リスト
- En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - HumanLiff: Layer-wise 3D Human Generation with Diffusion Model [55.891036415316876]
既存の3D生成モデルは、主に1回のパスで、検出不能な3Dモデルとして、着物付き3D人間を生成する。
拡散過程を統一した第1層の3次元人間生成モデルであるHumanLiffを提案する。
論文 参考訳(メタデータ) (2023-08-18T17:59:04Z) - MPM: A Unified 2D-3D Human Pose Representation via Masked Pose Modeling [59.74064212110042]
mpmcanは、3D人間のポーズ推定、クラッドされた2Dポーズからの3Dポーズ推定、3Dポーズ完了をtextocbsingleフレームワークで処理する。
MPI-INF-3DHPにおいて、広く使われているポーズデータセットの広範な実験とアブレーション研究を行い、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-06-29T10:30:00Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - PanoHead: Geometry-Aware 3D Full-Head Synthesis in 360$^{\circ}$ [17.355141949293852]
3次元頭部合成のための既存の3次元生成対向ネットワーク(GAN)は、正面近傍のビューに限られるか、大きなビュー角で3次元の一貫性を維持するのが困難である。
パノヘッド(PanoHead)は、360ドル(約3万3000円)で高画質のフルヘッド画像合成を可能にする最初の3D認識生成モデルである。
論文 参考訳(メタデータ) (2023-03-23T06:54:34Z) - SHERF: Generalizable Human NeRF from a Single Image [59.10589479808622]
SHERFは、単一の入力画像からアニマタブルな3D人間を復元するための、最初の一般化可能なヒトNeRFモデルである。
本稿では,情報符号化を容易にするために,グローバル,ポイントレベル,ピクセルアライン機能など3D対応の階層的特徴バンクを提案する。
論文 参考訳(メタデータ) (2023-03-22T17:59:12Z) - AvatarGen: A 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、様々な外観と制御可能なジオメトリーを持つ3D認識された人間の無監督世代である。
提案手法は, 高品質な外観と幾何学的モデリングにより, アニマタブルな3次元アバターを生成することができる。
シングルビュー再構成、再アニメーション、テキスト誘導合成/編集など、多くのアプリケーションに向いている。
論文 参考訳(メタデータ) (2022-11-26T15:15:45Z) - EVA3D: Compositional 3D Human Generation from 2D Image Collections [27.70991135165909]
EVA3Dは2次元画像のみから学習した無条件の3次元人体生成モデルである。
詳細な形状の3D人間をサンプリングし、鐘や笛を使わずに高品質な画像(最大512x256まで)をレンダリングすることができる。
テクスチャーとテクスチャ品質の両方に関して、最先端の3Dヒューマンジェネレーション性能を実現する。
論文 参考訳(メタデータ) (2022-10-10T17:59:31Z) - Inferring Implicit 3D Representations from Human Figures on Pictorial
Maps [1.0499611180329804]
画像地図上で最も頻繁に現れる人物の1つである人物を3次元化するための自動ワークフローを提案する。
まず、完全に連結された層からなるネットワークに、2次元ポーズポイントの深さ座標を推定させる。
得られた3Dポーズポイントは、本体部の2Dマスクと共に深暗面ネットワークに入力され、3D署名された距離場が推測される。
論文 参考訳(メタデータ) (2022-08-30T19:29:18Z) - 3D-Aware Semantic-Guided Generative Model for Human Synthesis [67.86621343494998]
本稿では,人間の画像合成のための3D-SGAN(Semantic-Guided Generative Model)を提案する。
DeepFashionデータセットに関する我々の実験は、3D-SGANが最新のベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-02T17:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。