論文の概要: Unsupervised Style-based Explicit 3D Face Reconstruction from Single
Image
- arxiv url: http://arxiv.org/abs/2304.12455v1
- Date: Mon, 24 Apr 2023 21:25:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 22:35:12.871791
- Title: Unsupervised Style-based Explicit 3D Face Reconstruction from Single
Image
- Title(参考訳): 教師なしスタイルに基づく単一画像からの3次元顔再構成
- Authors: Heng Yu, Zoltan A. Milacski, Laszlo A. Jeni
- Abstract要約: 本研究では,Unsupervised 2D to Explicit 3D Style Transferを解くための一般的な逆学習フレームワークを提案する。
具体的には、Wuらによる教師なし明示的な3D再構成ネットワークと、StarGAN-v2というジェネレーティブ・アドバイザリ・ネットワーク(GAN)の2つのアーキテクチャを統合する。
提案手法は,DepthNetを3次元再構成で,Pix2NeRFを条件付き転送で,よく確立されたソリューションよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 10.1205208477163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inferring 3D object structures from a single image is an ill-posed task due
to depth ambiguity and occlusion. Typical resolutions in the literature include
leveraging 2D or 3D ground truth for supervised learning, as well as imposing
hand-crafted symmetry priors or using an implicit representation to hallucinate
novel viewpoints for unsupervised methods. In this work, we propose a general
adversarial learning framework for solving Unsupervised 2D to Explicit 3D Style
Transfer (UE3DST). Specifically, we merge two architectures: the unsupervised
explicit 3D reconstruction network of Wu et al.\ and the Generative Adversarial
Network (GAN) named StarGAN-v2. We experiment across three facial datasets
(Basel Face Model, 3DFAW and CelebA-HQ) and show that our solution is able to
outperform well established solutions such as DepthNet in 3D reconstruction and
Pix2NeRF in conditional style transfer, while we also justify the individual
contributions of our model components via ablation. In contrast to the
aforementioned baselines, our scheme produces features for explicit 3D
rendering, which can be manipulated and utilized in downstream tasks.
- Abstract(参考訳): 1枚の画像から3dオブジェクト構造を推測することは、深さの曖昧さと閉塞のために不適切な作業である。
典型的には、2次元または3次元の基底真理を教師あり学習に利用したり、手作りの対称性の先行を示唆したり、暗黙の表現を使って教師なしの手法に新しい視点を幻覚させる。
本研究では,Unsupervised 2D to Explicit 3D Style Transfer (UE3DST) を解くための汎用逆学習フレームワークを提案する。
具体的には、2つのアーキテクチャをマージする: Wu et al.の教師なし明示的な3D再構成ネットワーク。
The Generative Adversarial Network (GAN) は StarGAN-v2 と命名された。
3つの顔データセット(basel face model, 3dfaw, celeba-hq)で実験を行い, 3次元再構築における depthnet や条件付きスタイル転送における pix2nerf といった確立されたソリューションよりも, 個々のモデルコンポーネントの寄与をアブレーションによって正当化できることを示した。
上記のベースラインとは対照的に、このスキームは、下流タスクで操作および活用できる明示的な3dレンダリング機能を生成する。
関連論文リスト
- 3D Face Reconstruction Using A Spectral-Based Graph Convolution Encoder [3.749406324648861]
本稿では,既存の2次元機能と3次元機能を統合し,モデル学習プロセスを導く革新的なアプローチを提案する。
我々のモデルはデータセットの組み合わせから2D-3Dデータペアを用いて訓練され、NoWベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-08T11:09:46Z) - Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion [115.82306502822412]
StyleGANは、画像インバージョンと潜時編集による2次元顔再構成とセマンティック編集において大きな進歩を遂げている。
対応する汎用的な3D GANインバージョンフレームワークがまだ欠けており、3D顔再構成とセマンティック編集の応用が制限されている。
本研究では,その3次元形状と詳細なテクスチャを忠実に復元するために,単一の顔画像から潜伏コードを予測する3D GAN逆変換の課題について検討する。
論文 参考訳(メタデータ) (2022-12-14T18:49:50Z) - Next3D: Generative Neural Texture Rasterization for 3D-Aware Head
Avatars [36.4402388864691]
3D-Aware Generative Adversarial Network (GANs) は, 単一視点2D画像のコレクションのみを用いて, 高忠実かつ多視点の顔画像を合成する。
最近の研究は、3D Morphable Face Model (3DMM) を用いて、生成放射場における変形を明示的または暗黙的に記述している。
本研究では,非構造化2次元画像から生成的,高品質,かつ3D一貫性のある顔アバターの教師なし学習のための新しい3D GANフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:40:46Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - GAN2X: Non-Lambertian Inverse Rendering of Image GANs [85.76426471872855]
GAN2Xは、教師なし画像のみをトレーニングに使用する、教師なし逆レンダリングの新しい手法である。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なしの単視3次元顔再構成の最先端性能を実現することができた。
論文 参考訳(メタデータ) (2022-06-18T16:58:49Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - 3D-Aware Indoor Scene Synthesis with Depth Priors [62.82867334012399]
既存の手法では、室内配置や内部の物体の多様さのため、屋内シーンのモデル化に失敗する。
室内のシーンは共通な内在構造を持たず、2次元画像のみを用いるだけでは3次元形状のモデルが適切にガイドできない。
論文 参考訳(メタデータ) (2022-02-17T09:54:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。