論文の概要: Generative Neural Articulated Radiance Fields
- arxiv url: http://arxiv.org/abs/2206.14314v1
- Date: Tue, 28 Jun 2022 22:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-30 21:05:22.281112
- Title: Generative Neural Articulated Radiance Fields
- Title(参考訳): 生成型ニューラルArticulated Radiance Fields
- Authors: Alexander W. Bergman, Petr Kellnhofer, Yifan Wang, Eric R. Chan, David
B. Lindell, Gordon Wetzstein
- Abstract要約: 我々は,人間の身体の放射界を標準的なポーズで生成し,明示的な変形場を用いて所望の身体のポーズや表情にワープする3D GANフレームワークを開発した。
変形認識訓練はポーズや表情を編集する際の身体や顔の質を著しく向上させる。
- 参考スコア(独自算出の注目度): 104.9224190002448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised learning of 3D-aware generative adversarial networks (GANs)
using only collections of single-view 2D photographs has very recently made
much progress. These 3D GANs, however, have not been demonstrated for human
bodies and the generated radiance fields of existing frameworks are not
directly editable, limiting their applicability in downstream tasks. We propose
a solution to these challenges by developing a 3D GAN framework that learns to
generate radiance fields of human bodies or faces in a canonical pose and warp
them using an explicit deformation field into a desired body pose or facial
expression. Using our framework, we demonstrate the first high-quality radiance
field generation results for human bodies. Moreover, we show that our
deformation-aware training procedure significantly improves the quality of
generated bodies or faces when editing their poses or facial expressions
compared to a 3D GAN that is not trained with explicit deformations.
- Abstract(参考訳): 単視点2D画像のみを用いた3次元認識型生成敵ネットワーク(GAN)の教師なし学習は,近年,非常に進歩している。
しかし、これらの3D GANは人体では実証されておらず、既存のフレームワークの放射界は直接編集できないため、下流タスクにおける適用性が制限されている。
本研究では,人体や顔の放射界を標準的なポーズで生成し,所望の身体ポーズや表情に明示的な変形場を用いてワープする3D GANフレームワークを開発することで,これらの課題に対する解決策を提案する。
本フレームワークを用いて,人体に対する最初の高品質な放射場生成結果を示す。
さらに, この変形認識訓練は, 明示的な変形を訓練していない3D GANと比較して, ポーズや表情を編集する際に生成体や顔の質を著しく向上させることを示した。
関連論文リスト
- Single Image, Any Face: Generalisable 3D Face Generation [59.9369171926757]
我々は,制約のない単一画像入力を伴う3次元顔を生成する新しいモデルGen3D-Faceを提案する。
私たちの知る限りでは、これは1枚の画像からフォトリアリスティックな3D顔アバターを作るための最初の試みであり、ベンチマークである。
論文 参考訳(メタデータ) (2024-09-25T14:56:37Z) - AniPortraitGAN: Animatable 3D Portrait Generation from 2D Image
Collections [78.81539337399391]
顔の表情, 頭部ポーズ, 肩の動きを制御可能なポートレート画像を生成するアニマタブルな3D認識型GANを提案する。
これは、3Dやビデオデータを使用しない非構造化2次元画像コレクションで訓練された生成モデルである。
生成した顔の質を向上させるために,デュアルカメラレンダリングと対角学習方式を提案する。
論文 参考訳(メタデータ) (2023-09-05T12:44:57Z) - Next3D: Generative Neural Texture Rasterization for 3D-Aware Head
Avatars [36.4402388864691]
3D-Aware Generative Adversarial Network (GANs) は, 単一視点2D画像のコレクションのみを用いて, 高忠実かつ多視点の顔画像を合成する。
最近の研究は、3D Morphable Face Model (3DMM) を用いて、生成放射場における変形を明示的または暗黙的に記述している。
本研究では,非構造化2次元画像から生成的,高品質,かつ3D一貫性のある顔アバターの教師なし学習のための新しい3D GANフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:40:46Z) - 3D-FM GAN: Towards 3D-Controllable Face Manipulation [43.99393180444706]
3D-FM GANは、3D制御可能な顔操作に特化した新しい条件付きGANフレームワークである。
入力された顔画像と3D編集の物理的レンダリングの両方をStyleGANの潜在空間に注意深く符号化することにより、画像生成装置は高品質でアイデンティティを保存し、3D制御可能な顔操作を提供する。
提案手法は, 編集性の向上, アイデンティティの保存性の向上, 写真リアリズムの向上など, 様々なタスクにおいて, 先行技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-08-24T01:33:13Z) - GAN2X: Non-Lambertian Inverse Rendering of Image GANs [85.76426471872855]
GAN2Xは、教師なし画像のみをトレーニングに使用する、教師なし逆レンダリングの新しい手法である。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なしの単視3次元顔再構成の最先端性能を実現することができた。
論文 参考訳(メタデータ) (2022-06-18T16:58:49Z) - MOST-GAN: 3D Morphable StyleGAN for Disentangled Face Image Manipulation [69.35523133292389]
本稿では,顔の物理的属性を明示的にモデル化するフレームワークを提案する。
提案手法であるMOST-GANは,GANの表現力と光リアリズムを,非線形3次元形態素モデルの物理的ゆがみおよび柔軟性と統合する。
ポートレート画像の物理的特性を完全に3D制御する写真リアルな操作を実現し、照明の極端な操作、表情、およびフルプロファイルビューまでのポーズのバリエーションを可能にする。
論文 参考訳(メタデータ) (2021-11-01T15:53:36Z) - Lifting 2D StyleGAN for 3D-Aware Face Generation [52.8152883980813]
我々は,3次元顔生成のための事前学習済みのStyleGAN2を切断し,持ち上げるLiftedGANというフレームワークを提案する。
本モデルは,(1)StyleGAN2の潜伏空間をテクスチャ,形状,視点,照明に分解し,(2)合成画像のための3D成分を生成することができるという意味で「3D認識」である。
論文 参考訳(メタデータ) (2020-11-26T05:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。