論文の概要: MOST-GAN: 3D Morphable StyleGAN for Disentangled Face Image Manipulation
- arxiv url: http://arxiv.org/abs/2111.01048v1
- Date: Mon, 1 Nov 2021 15:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 13:27:12.928262
- Title: MOST-GAN: 3D Morphable StyleGAN for Disentangled Face Image Manipulation
- Title(参考訳): MOST-GAN:遠交顔画像操作のための3次元形状型GAN
- Authors: Safa C. Medin, Bernhard Egger, Anoop Cherian, Ye Wang, Joshua B.
Tenenbaum, Xiaoming Liu, Tim K. Marks
- Abstract要約: 本稿では,顔の物理的属性を明示的にモデル化するフレームワークを提案する。
提案手法であるMOST-GANは,GANの表現力と光リアリズムを,非線形3次元形態素モデルの物理的ゆがみおよび柔軟性と統合する。
ポートレート画像の物理的特性を完全に3D制御する写真リアルな操作を実現し、照明の極端な操作、表情、およびフルプロファイルビューまでのポーズのバリエーションを可能にする。
- 参考スコア(独自算出の注目度): 69.35523133292389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generative adversarial networks (GANs) have led to
remarkable achievements in face image synthesis. While methods that use
style-based GANs can generate strikingly photorealistic face images, it is
often difficult to control the characteristics of the generated faces in a
meaningful and disentangled way. Prior approaches aim to achieve such semantic
control and disentanglement within the latent space of a previously trained
GAN. In contrast, we propose a framework that a priori models physical
attributes of the face such as 3D shape, albedo, pose, and lighting explicitly,
thus providing disentanglement by design. Our method, MOST-GAN, integrates the
expressive power and photorealism of style-based GANs with the physical
disentanglement and flexibility of nonlinear 3D morphable models, which we
couple with a state-of-the-art 2D hair manipulation network. MOST-GAN achieves
photorealistic manipulation of portrait images with fully disentangled 3D
control over their physical attributes, enabling extreme manipulation of
lighting, facial expression, and pose variations up to full profile view.
- Abstract(参考訳): 最近のgans(generative adversarial network)の進歩は、顔画像合成において顕著な成果をもたらしている。
スタイルベースのganを用いる手法は、印象的なフォトリアリスティックな顔画像を生成することができるが、生成した顔の特徴を有意義で不連続な方法で制御することはしばしば困難である。
事前のアプローチは、以前に訓練されたGANの潜在空間内で、このような意味制御と非絡み合いを実現することを目的としている。
対照的に,3次元形状,アルベド,ポーズ,照明などの顔の物理的属性を事前にモデル化し,デザインによる絡み合いを解消する枠組みを提案する。
提案手法であるMOST-GANは,スタイルベースGANの表現力と光リアリズムと非線形3D形態素モデルの物理的歪みと柔軟性を統合し,最先端の2Dヘア操作ネットワークと結合する。
MOST-GANは、その物理的特性を完全に3D制御した肖像画の写実的な操作を実現し、照明、表情、およびフルプロファイルビューまでのポーズの極端な操作を可能にする。
関連論文リスト
- Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - CGOF++: Controllable 3D Face Synthesis with Conditional Generative
Occupancy Fields [52.14985242487535]
生成した顔画像の3次元制御性を実現する条件付き3次元顔合成フレームワークを提案する。
中心となるのは条件付き生成操作場(cGOF++)であり、それによって生成された顔の形状が与えられた3Dモルファブルモデル(3DMM)メッシュに適合するように効果的に強制される。
提案手法の有効性を検証し, 最先端の2次元顔合成法よりも高精度な3次元制御性を示す実験を行った。
論文 参考訳(メタデータ) (2022-11-23T19:02:50Z) - 3DMM-RF: Convolutional Radiance Fields for 3D Face Modeling [111.98096975078158]
本稿では,1つのパスを1つのパスで合成し,必要なニューラルネットワークのレンダリングサンプルのみを合成するスタイルベースの生成ネットワークを提案する。
このモデルは、任意のポーズと照明の顔画像に正確に適合し、顔の特徴を抽出し、制御可能な条件下で顔を再レンダリングするために使用できることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:28:45Z) - Explicitly Controllable 3D-Aware Portrait Generation [42.30481422714532]
ポーズ,アイデンティティ,表現,照明に関する意味的パラメータに基づいて,一貫した肖像画を生成する3次元肖像画生成ネットワークを提案する。
提案手法は,自然光の鮮明な表現によるリアルな肖像画を,自由視点で見る場合,先行技術よりも優れる。
論文 参考訳(メタデータ) (2022-09-12T17:40:08Z) - 3D-FM GAN: Towards 3D-Controllable Face Manipulation [43.99393180444706]
3D-FM GANは、3D制御可能な顔操作に特化した新しい条件付きGANフレームワークである。
入力された顔画像と3D編集の物理的レンダリングの両方をStyleGANの潜在空間に注意深く符号化することにより、画像生成装置は高品質でアイデンティティを保存し、3D制御可能な顔操作を提供する。
提案手法は, 編集性の向上, アイデンティティの保存性の向上, 写真リアリズムの向上など, 様々なタスクにおいて, 先行技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-08-24T01:33:13Z) - Normalized Avatar Synthesis Using StyleGAN and Perceptual Refinement [11.422683083130577]
我々は,1枚の制約のない写真から人物の正規化された3Dアバターをデジタル化する,非常に堅牢なGANベースのフレームワークを提案する。
入力画像は笑顔でもよいし、極端な照明条件で撮影することもできるが、この方法は人の顔の質の高いテクスチャモデルを確実に作成することができる。
論文 参考訳(メタデータ) (2021-06-21T21:57:16Z) - Lifting 2D StyleGAN for 3D-Aware Face Generation [52.8152883980813]
我々は,3次元顔生成のための事前学習済みのStyleGAN2を切断し,持ち上げるLiftedGANというフレームワークを提案する。
本モデルは,(1)StyleGAN2の潜伏空間をテクスチャ,形状,視点,照明に分解し,(2)合成画像のための3D成分を生成することができるという意味で「3D認識」である。
論文 参考訳(メタデータ) (2020-11-26T05:02:09Z) - StyleRig: Rigging StyleGAN for 3D Control over Portrait Images [81.43265493604302]
StyleGANは、目、歯、髪、コンテキスト(首、肩、背景)のある顔の肖像画を生成する
StyleGANには、顔ポーズ、表情、シーン照明といった3Dで解釈可能なセマンティックフェイスパラメータに対するrigのようなコントロールがない。
3DMMを用いて,事前に訓練された,固定されたStyleGANに対して,顔リグライクな制御を行うための最初の方法を提案する。
論文 参考訳(メタデータ) (2020-03-31T21:20:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。