論文の概要: GAN2X: Non-Lambertian Inverse Rendering of Image GANs
- arxiv url: http://arxiv.org/abs/2206.09244v1
- Date: Sat, 18 Jun 2022 16:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 17:07:03.213226
- Title: GAN2X: Non-Lambertian Inverse Rendering of Image GANs
- Title(参考訳): GAN2X: 画像GANの非ラミビア逆レンダリング
- Authors: Xingang Pan, Ayush Tewari, Lingjie Liu, Christian Theobalt
- Abstract要約: GAN2Xは、教師なし画像のみをトレーニングに使用する、教師なし逆レンダリングの新しい手法である。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なしの単視3次元顔再構成の最先端性能を実現することができた。
- 参考スコア(独自算出の注目度): 85.76426471872855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 2D images are observations of the 3D physical world depicted with the
geometry, material, and illumination components. Recovering these underlying
intrinsic components from 2D images, also known as inverse rendering, usually
requires a supervised setting with paired images collected from multiple
viewpoints and lighting conditions, which is resource-demanding. In this work,
we present GAN2X, a new method for unsupervised inverse rendering that only
uses unpaired images for training. Unlike previous Shape-from-GAN approaches
that mainly focus on 3D shapes, we take the first attempt to also recover
non-Lambertian material properties by exploiting the pseudo paired data
generated by a GAN. To achieve precise inverse rendering, we devise a
specularity-aware neural surface representation that continuously models the
geometry and material properties. A shading-based refinement technique is
adopted to further distill information in the target image and recover more
fine details. Experiments demonstrate that GAN2X can accurately decompose 2D
images to 3D shape, albedo, and specular properties for different object
categories, and achieves the state-of-the-art performance for unsupervised
single-view 3D face reconstruction. We also show its applications in downstream
tasks including real image editing and lifting 2D GANs to decomposed 3D GANs.
- Abstract(参考訳): 2D画像は、幾何学、材料、照明成分で描かれた3D物理世界の観測である。
逆レンダリング(inverse rendering)とも呼ばれる2D画像からこれらの基盤となる固有成分を復元するには、通常、複数の視点から収集されたペア画像とリソース要求の照明条件による教師付き設定が必要である。
本研究では,未ペア画像のみをトレーニングに用いる教師なし逆レンダリングの新しい手法であるGAN2Xを提案する。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
正確な逆レンダリングを実現するために,形状や材料特性を連続的にモデル化する,特異性を考慮した神経表面表現を考案する。
シェーディングベースの精錬技術を用いて、対象画像の情報を更に蒸留し、さらに細部を復元する。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なし単視3次元顔再構成の最先端性能を実現する。
また、実際の画像編集や3D GANの分解のための2D GANのリフトなど、下流タスクにも応用例を示す。
関連論文リスト
- Unsupervised Style-based Explicit 3D Face Reconstruction from Single
Image [10.1205208477163]
本研究では,Unsupervised 2D to Explicit 3D Style Transferを解くための一般的な逆学習フレームワークを提案する。
具体的には、Wuらによる教師なし明示的な3D再構成ネットワークと、StarGAN-v2というジェネレーティブ・アドバイザリ・ネットワーク(GAN)の2つのアーキテクチャを統合する。
提案手法は,DepthNetを3次元再構成で,Pix2NeRFを条件付き転送で,よく確立されたソリューションよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-24T21:25:06Z) - In-N-Out: Faithful 3D GAN Inversion with Volumetric Decomposition for Face Editing [28.790900756506833]
3D対応のGANは、2D対応の編集機能を保ちながら、ビュー合成のための新しい機能を提供する。
GANインバージョンは、入力画像や動画を再構成する潜時コードを求める重要なステップであり、この潜時コードを操作することで様々な編集タスクを可能にする。
我々は3次元GANの入力からOODオブジェクトを明示的にモデル化することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:59:56Z) - Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion [115.82306502822412]
StyleGANは、画像インバージョンと潜時編集による2次元顔再構成とセマンティック編集において大きな進歩を遂げている。
対応する汎用的な3D GANインバージョンフレームワークがまだ欠けており、3D顔再構成とセマンティック編集の応用が制限されている。
本研究では,その3次元形状と詳細なテクスチャを忠実に復元するために,単一の顔画像から潜伏コードを予測する3D GAN逆変換の課題について検討する。
論文 参考訳(メタデータ) (2022-12-14T18:49:50Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z) - Fully Understanding Generic Objects: Modeling, Segmentation, and
Reconstruction [33.95791350070165]
2D画像からジェネリックオブジェクトの3D構造を推定することは、コンピュータビジョンの長年の目標です。
半教師付き学習による代替アプローチを取る。
つまり、ジェネリックオブジェクトの2Dイメージでは、カテゴリ、形状、およびアルベドの潜在的な表現に分解します。
完全な形状とアルベドモデリングにより、モデリングとモデルフィッティングの両方で実際の2Dイメージを活用できることを示しています。
論文 参考訳(メタデータ) (2021-04-02T02:39:29Z) - Lifting 2D StyleGAN for 3D-Aware Face Generation [52.8152883980813]
我々は,3次元顔生成のための事前学習済みのStyleGAN2を切断し,持ち上げるLiftedGANというフレームワークを提案する。
本モデルは,(1)StyleGAN2の潜伏空間をテクスチャ,形状,視点,照明に分解し,(2)合成画像のための3D成分を生成することができるという意味で「3D認識」である。
論文 参考訳(メタデータ) (2020-11-26T05:02:09Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。