論文の概要: Mimic3D: Thriving 3D-Aware GANs via 3D-to-2D Imitation
- arxiv url: http://arxiv.org/abs/2303.09036v2
- Date: Mon, 7 Aug 2023 08:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 23:40:03.902553
- Title: Mimic3D: Thriving 3D-Aware GANs via 3D-to-2D Imitation
- Title(参考訳): Mimic3D:3Dから2Dの模倣で3D対応のGANを作れる
- Authors: Xingyu Chen, Yu Deng, Baoyuan Wang
- Abstract要約: 本稿では,3D-to-2Dの模倣という新たな学習手法を提案する。
また、3D表現学習を改善するために、ジェネレータに3D対応の畳み込みを導入する。
その結果,FFHQとAFHQ-v2のFIDスコアは512×512でそれぞれ5.4点,AFHQ-v2 Catsでは4.3点に達した。
- 参考スコア(独自算出の注目度): 29.959223778769513
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generating images with both photorealism and multiview 3D consistency is
crucial for 3D-aware GANs, yet existing methods struggle to achieve them
simultaneously. Improving the photorealism via CNN-based 2D super-resolution
can break the strict 3D consistency, while keeping the 3D consistency by
learning high-resolution 3D representations for direct rendering often
compromises image quality. In this paper, we propose a novel learning strategy,
namely 3D-to-2D imitation, which enables a 3D-aware GAN to generate
high-quality images while maintaining their strict 3D consistency, by letting
the images synthesized by the generator's 3D rendering branch to mimic those
generated by its 2D super-resolution branch. We also introduce 3D-aware
convolutions into the generator for better 3D representation learning, which
further improves the image generation quality. With the above strategies, our
method reaches FID scores of 5.4 and 4.3 on FFHQ and AFHQ-v2 Cats,
respectively, at 512x512 resolution, largely outperforming existing 3D-aware
GANs using direct 3D rendering and coming very close to the previous
state-of-the-art method that leverages 2D super-resolution. Project website:
https://seanchenxy.github.io/Mimic3DWeb.
- Abstract(参考訳): 光リアリズムとマルチビューの3D整合性の両方で画像を生成することは、3D対応のGANには不可欠である。
CNNベースの2Dスーパーレゾリューションによるフォトリアリズムの改善は、厳密な3D一貫性を損なう可能性がある。
本稿では,3次元レンダリングブランチで生成した画像を2次元スーパーレゾリューションブランチで再現することにより,GANが厳密な3次元一貫性を維持しながら高品質な画像を生成することができる3D-to-2D模倣方式を提案する。
また、3次元表現学習を改善するために3次元認識畳み込みを導入し、画像生成品質をさらに向上させる。
本手法はFFHQとAFHQ-v2のFIDスコア5.4と4.3をそれぞれ512×512の解像度で達成し, 直接3Dレンダリングによる既存の3D認識GANよりも優れ, 2D超解像を利用する従来の最先端手法に非常に近い。
プロジェクトウェブサイト: https://seanchenxy.github.io/Mimic3DWeb
関連論文リスト
- 3D-SSGAN: Lifting 2D Semantics for 3D-Aware Compositional Portrait
Synthesis [11.457566989721078]
既存の3D対応のポートレート合成手法は、強い3D一貫性を維持しながら、印象的な高品質な画像を生成することができる。
3D-SSGANは3次元合成画像合成のための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-01-08T09:41:07Z) - What You See is What You GAN: Rendering Every Pixel for High-Fidelity
Geometry in 3D GANs [82.3936309001633]
3D-aware Generative Adversarial Networks (GANs) は,マルチビュー一貫性画像と3Dジオメトリを生成する学習において,顕著な進歩を見せている。
しかし、ボリュームレンダリングにおける高密度サンプリングの大幅なメモリと計算コストにより、3D GANはパッチベースのトレーニングを採用するか、後処理の2Dスーパーレゾリューションで低解像度レンダリングを採用することを余儀なくされた。
ニューラルボリュームレンダリングをネイティブ2次元画像の高解像度化に拡張する手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T18:50:38Z) - Sherpa3D: Boosting High-Fidelity Text-to-3D Generation via Coarse 3D
Prior [52.44678180286886]
2次元拡散モデルでは、3次元データなしで優れた一般化と豊富な詳細を実現する蒸留手法が見つかる。
提案するSherpa3Dは,高忠実度,一般化性,幾何整合性を同時に実現する新しいテキスト・ツー・3Dフレームワークである。
論文 参考訳(メタデータ) (2023-12-11T18:59:18Z) - Magic123: One Image to High-Quality 3D Object Generation Using Both 2D
and 3D Diffusion Priors [104.79392615848109]
Magic123は、高品質でテクスチャ化された3Dメッシュのための、2段階の粗大なアプローチである。
最初の段階では、粗い幾何学を生成するために、神経放射場を最適化する。
第2段階では、視覚的に魅力的なテクスチャを持つ高分解能メッシュを生成するために、メモリ効率のよい微分可能なメッシュ表現を採用する。
論文 参考訳(メタデータ) (2023-06-30T17:59:08Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z) - GRAM-HD: 3D-Consistent Image Generation at High Resolution with
Generative Radiance Manifolds [28.660893916203747]
本稿では,ボリュームレンダリングのように厳密な3D一貫性を維持しつつ,高解像度画像(最大1024×1024)を生成できる新しい3D対応GANを提案する。
私たちのモチベーションは、3Dの一貫性を維持するために、3D空間で直接超解像度を達成することです。
FFHQおよびAFHQv2データセットを用いた実験により,本手法は高品質な3D一貫性のある結果が得られることが示された。
論文 参考訳(メタデータ) (2022-06-15T02:35:51Z) - Lifting 2D StyleGAN for 3D-Aware Face Generation [52.8152883980813]
我々は,3次元顔生成のための事前学習済みのStyleGAN2を切断し,持ち上げるLiftedGANというフレームワークを提案する。
本モデルは,(1)StyleGAN2の潜伏空間をテクスチャ,形状,視点,照明に分解し,(2)合成画像のための3D成分を生成することができるという意味で「3D認識」である。
論文 参考訳(メタデータ) (2020-11-26T05:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。