論文の概要: Explicitly Controllable 3D-Aware Portrait Generation
- arxiv url: http://arxiv.org/abs/2209.05434v1
- Date: Mon, 12 Sep 2022 17:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:33:26.052712
- Title: Explicitly Controllable 3D-Aware Portrait Generation
- Title(参考訳): 鮮明に制御可能な3次元画像生成
- Authors: Junshu Tang, Bo Zhang, Binxin Yang, Ting Zhang, Dong Chen, Lizhuang
Ma, Fang Wen
- Abstract要約: ポーズ,アイデンティティ,表現,照明に関する意味的パラメータに基づいて,一貫した肖像画を生成する3次元肖像画生成ネットワークを提案する。
提案手法は,自然光の鮮明な表現によるリアルな肖像画を,自由視点で見る場合,先行技術よりも優れる。
- 参考スコア(独自算出の注目度): 42.30481422714532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In contrast to the traditional avatar creation pipeline which is a costly
process, contemporary generative approaches directly learn the data
distribution from photographs and the state of the arts can now yield highly
photo-realistic images. While plenty of works attempt to extend the
unconditional generative models and achieve some level of controllability, it
is still challenging to ensure multi-view consistency, especially in large
poses. In this work, we propose a 3D portrait generation network that produces
3D consistent portraits while being controllable according to semantic
parameters regarding pose, identity, expression and lighting. The generative
network uses neural scene representation to model portraits in 3D, whose
generation is guided by a parametric face model that supports explicit control.
While the latent disentanglement can be further enhanced by contrasting images
with partially different attributes, there still exists noticeable
inconsistency in non-face areas, e.g., hair and background, when animating
expressions. We solve this by proposing a volume blending strategy in which we
form a composite output by blending the dynamic and static radiance fields,
with two parts segmented from the jointly learned semantic field. Our method
outperforms prior arts in extensive experiments, producing realistic portraits
with vivid expression in natural lighting when viewed in free viewpoint. The
proposed method also demonstrates generalization ability to real images as well
as out-of-domain cartoon faces, showing great promise in real applications.
Additional video results and code will be available on the project webpage.
- Abstract(参考訳): コストのかかるプロセスである従来のアバター生成パイプラインとは対照的に、現代の生成的アプローチは写真から直接データ配信を学習し、芸術の状況は、非常にリアルな画像を生み出すことができる。
非条件生成モデルを拡張し、ある程度の制御可能性を達成しようとする作業はたくさんあるが、特に大きなポーズでは、マルチビューの一貫性を確保することは依然として困難である。
本研究では,ポーズ,アイデンティティ,表現,照明に関するセマンティックパラメータに基づいて3次元一貫した肖像画を生成する3次元ポートレート生成ネットワークを提案する。
生成ネットワークは、ニューラルシーン表現を使用して3Dの肖像画をモデル化し、その生成は明示的な制御をサポートするパラメトリック顔モデルによって誘導される。
部分的な特徴を持つ画像と対比することで、潜伏した絡み合いをさらに強化することができるが、表情をアニメーションする際、例えば髪や背景など、非顔領域に顕著な矛盾が存在する。
本研究では、動的および静的な放射場を混合して合成出力を形成するボリュームブレンディング戦略を提案し、その2つの部分を共同学習されたセマンティックフィールドから分割する。
提案手法は,自然光の鮮明な表現によるリアルな肖像画を,自由視点で見る場合,先行技術よりも優れる。
提案手法は,実画像とドメイン外マンガ顔に対する一般化能力も示しており,実アプリケーションでは大きな期待が持たれている。
さらなるビデオ結果とコードは、プロジェクトのwebページで入手できる。
関連論文リスト
- DiffPortrait3D: Controllable Diffusion for Zero-Shot Portrait View Synthesis [18.64688172651478]
本稿では,DiffPortrait3Dについて述べる。DiffPortrait3Dは,3次元一貫性のあるフォトリアリスティック・ノベルビューを合成できる条件拡散モデルである。
一つのRGB入力が与えられた場合、我々は、新しいカメラビューから表現された、可塑性だが一貫した顔の詳細を合成することを目指している。
我々は、我々の挑戦的インザワイルドとマルチビューのベンチマークにおいて、質的にも定量的にも、最先端の結果を実証する。
論文 参考訳(メタデータ) (2023-12-20T13:31:11Z) - AniPortraitGAN: Animatable 3D Portrait Generation from 2D Image
Collections [78.81539337399391]
顔の表情, 頭部ポーズ, 肩の動きを制御可能なポートレート画像を生成するアニマタブルな3D認識型GANを提案する。
これは、3Dやビデオデータを使用しない非構造化2次元画像コレクションで訓練された生成モデルである。
生成した顔の質を向上させるために,デュアルカメラレンダリングと対角学習方式を提案する。
論文 参考訳(メタデータ) (2023-09-05T12:44:57Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - FaceLit: Neural 3D Relightable Faces [28.0806453092185]
FaceLitは、ユーザーが定義した様々な照明条件やビューでレンダリングできる3D顔を生成することができる。
FFHQデータセット上での3次元認識GANのFIDスコア3.5。
論文 参考訳(メタデータ) (2023-03-27T17:59:10Z) - GAUDI: A Neural Architect for Immersive 3D Scene Generation [67.97817314857917]
GAUDIは、動くカメラから没入的にレンダリングできる複雑な3Dシーンの分布をキャプチャできる生成モデルである。
GAUDIは,複数のデータセットにまたがる非条件生成環境において,最先端の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-27T19:10:32Z) - 3D GAN Inversion for Controllable Portrait Image Animation [45.55581298551192]
我々は新たに開発された3D GANを活用し、マルチビュー一貫性のある画像対象のポーズを明示的に制御できる。
ポートレート・イメージ・アニメーションの手法は、画像の品質、アイデンティティの保存、ポーズ・トランスファーの点で、従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-03-25T04:06:06Z) - MOST-GAN: 3D Morphable StyleGAN for Disentangled Face Image Manipulation [69.35523133292389]
本稿では,顔の物理的属性を明示的にモデル化するフレームワークを提案する。
提案手法であるMOST-GANは,GANの表現力と光リアリズムを,非線形3次元形態素モデルの物理的ゆがみおよび柔軟性と統合する。
ポートレート画像の物理的特性を完全に3D制御する写真リアルな操作を実現し、照明の極端な操作、表情、およびフルプロファイルビューまでのポーズのバリエーションを可能にする。
論文 参考訳(メタデータ) (2021-11-01T15:53:36Z) - FreeStyleGAN: Free-view Editable Portrait Rendering with the Camera
Manifold [5.462226912969161]
現在のGAN(Generative Adversarial Networks)は、ポートレート画像のフォトリアリスティックレンダリングを生成する。
当社のアプローチは,トレーニング済みのStyleGANを標準の3Dレンダリングパイプラインに統合する上で,どのような効果があるかを示す。
本手法は,インタラクティブなレートでリアルな顔の真の自由視点レンダリングを提案する。
論文 参考訳(メタデータ) (2021-09-20T08:59:21Z) - PIRenderer: Controllable Portrait Image Generation via Semantic Neural
Rendering [56.762094966235566]
ポートレート画像ニューラルレンダは、3次元の変形可能な顔モデルのパラメータで顔の動きを制御するために提案される。
提案モデルでは直感的な修正によって正確な動きで写真リアルなポートレート画像を生成することができる。
本モデルでは、単一の参照画像と駆動音声ストリームのみから、説得力のある動きでコヒーレントな動画を生成することができる。
論文 参考訳(メタデータ) (2021-09-17T07:24:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。