論文の概要: 3DHumanGAN: Towards Photo-Realistic 3D-Aware Human Image Generation
- arxiv url: http://arxiv.org/abs/2212.07378v1
- Date: Wed, 14 Dec 2022 17:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 14:16:51.004351
- Title: 3DHumanGAN: Towards Photo-Realistic 3D-Aware Human Image Generation
- Title(参考訳): 3DHumanGAN:フォトリアリスティックな3D画像生成を目指して
- Authors: Zhuoqian Yang, Shikai Li, Wayne Wu, Bo Dai
- Abstract要約: 3DHumanGAN(3D-Aware Generative Adversarial Network, GAN)は, 視角と体位置の異なる一貫した外見を持つフルボディヒトの画像を合成する3DHumanGANを提案する。
我々のモデルは、手動のアノテーションが不要なWeb画像の集合から逆向きに学習されている。
- 参考スコア(独自算出の注目度): 68.60140183018457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present 3DHumanGAN, a 3D-aware generative adversarial network (GAN) that
synthesizes images of full-body humans with consistent appearances under
different view-angles and body-poses. To tackle the representational and
computational challenges in synthesizing the articulated structure of human
bodies, we propose a novel generator architecture in which a 2D convolutional
backbone is modulated by a 3D pose mapping network. The 3D pose mapping network
is formulated as a renderable implicit function conditioned on a posed 3D human
mesh. This design has several merits: i) it allows us to harness the power of
2D GANs to generate photo-realistic images; ii) it generates consistent images
under varying view-angles and specifiable poses; iii) the model can benefit
from the 3D human prior. Our model is adversarially learned from a collection
of web images needless of manual annotation.
- Abstract(参考訳): 3DHumanGAN(3D-Aware Generative Adversarial Network, GAN)は, 視角と体位置の異なる一貫した外観で全身の人間の画像を合成する。
人体の調音構造を合成する上での表現的および計算的課題に対処するために,3次元ポーズマッピングネットワークによって2次元畳み込みバックボーンを変調する新しいジェネレータアーキテクチャを提案する。
3Dポーズマッピングネットワークは、3D人間のメッシュ上に条件付けられたレンダリング可能な暗黙の関数として定式化される。
このデザインにはいくつかのメリットがあります
i)2D GANのパワーを利用して写真リアル画像を生成することができる。
二 異なる視角及び特異なポーズの下で一貫した画像を生成すること。
三 モデルは、先行する3D人間の恩恵を受けることができる。
我々のモデルは、手動のアノテーションが不要なWeb画像の集合から逆向きに学習されている。
関連論文リスト
- En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - HumanLiff: Layer-wise 3D Human Generation with Diffusion Model [55.891036415316876]
既存の3D生成モデルは、主に1回のパスで、検出不能な3Dモデルとして、着物付き3D人間を生成する。
拡散過程を統一した第1層の3次元人間生成モデルであるHumanLiffを提案する。
論文 参考訳(メタデータ) (2023-08-18T17:59:04Z) - MPM: A Unified 2D-3D Human Pose Representation via Masked Pose Modeling [59.74064212110042]
mpmcanは、3D人間のポーズ推定、クラッドされた2Dポーズからの3Dポーズ推定、3Dポーズ完了をtextocbsingleフレームワークで処理する。
MPI-INF-3DHPにおいて、広く使われているポーズデータセットの広範な実験とアブレーション研究を行い、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-06-29T10:30:00Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - PanoHead: Geometry-Aware 3D Full-Head Synthesis in 360$^{\circ}$ [17.355141949293852]
3次元頭部合成のための既存の3次元生成対向ネットワーク(GAN)は、正面近傍のビューに限られるか、大きなビュー角で3次元の一貫性を維持するのが困難である。
パノヘッド(PanoHead)は、360ドル(約3万3000円)で高画質のフルヘッド画像合成を可能にする最初の3D認識生成モデルである。
論文 参考訳(メタデータ) (2023-03-23T06:54:34Z) - SHERF: Generalizable Human NeRF from a Single Image [59.10589479808622]
SHERFは、単一の入力画像からアニマタブルな3D人間を復元するための、最初の一般化可能なヒトNeRFモデルである。
本稿では,情報符号化を容易にするために,グローバル,ポイントレベル,ピクセルアライン機能など3D対応の階層的特徴バンクを提案する。
論文 参考訳(メタデータ) (2023-03-22T17:59:12Z) - AvatarGen: A 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、様々な外観と制御可能なジオメトリーを持つ3D認識された人間の無監督世代である。
提案手法は, 高品質な外観と幾何学的モデリングにより, アニマタブルな3次元アバターを生成することができる。
シングルビュー再構成、再アニメーション、テキスト誘導合成/編集など、多くのアプリケーションに向いている。
論文 参考訳(メタデータ) (2022-11-26T15:15:45Z) - EVA3D: Compositional 3D Human Generation from 2D Image Collections [27.70991135165909]
EVA3Dは2次元画像のみから学習した無条件の3次元人体生成モデルである。
詳細な形状の3D人間をサンプリングし、鐘や笛を使わずに高品質な画像(最大512x256まで)をレンダリングすることができる。
テクスチャーとテクスチャ品質の両方に関して、最先端の3Dヒューマンジェネレーション性能を実現する。
論文 参考訳(メタデータ) (2022-10-10T17:59:31Z) - Inferring Implicit 3D Representations from Human Figures on Pictorial
Maps [1.0499611180329804]
画像地図上で最も頻繁に現れる人物の1つである人物を3次元化するための自動ワークフローを提案する。
まず、完全に連結された層からなるネットワークに、2次元ポーズポイントの深さ座標を推定させる。
得られた3Dポーズポイントは、本体部の2Dマスクと共に深暗面ネットワークに入力され、3D署名された距離場が推測される。
論文 参考訳(メタデータ) (2022-08-30T19:29:18Z) - 3D-Aware Semantic-Guided Generative Model for Human Synthesis [67.86621343494998]
本稿では,人間の画像合成のための3D-SGAN(Semantic-Guided Generative Model)を提案する。
DeepFashionデータセットに関する我々の実験は、3D-SGANが最新のベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-02T17:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。