論文の概要: Efficient Geometry-aware 3D Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2112.07945v1
- Date: Wed, 15 Dec 2021 08:01:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 13:09:25.409503
- Title: Efficient Geometry-aware 3D Generative Adversarial Networks
- Title(参考訳): 効率的な幾何認識型3次元生成対向ネットワーク
- Authors: Eric R. Chan, Connor Z. Lin, Matthew A. Chan, Koki Nagano, Boxiao Pan,
Shalini De Mello, Orazio Gallo, Leonidas Guibas, Jonathan Tremblay, Sameh
Khamis, Tero Karras and Gordon Wetzstein
- Abstract要約: 既存の3D GANは計算集約的であるか、3D一貫性のない近似を行う。
本研究では、3D GANの計算効率と画質をこれらの近似に頼らずに改善する。
本稿では,高解像度のマルチビュー一貫性画像だけでなく,高品質な3次元形状をリアルタイムに合成する,表現型ハイブリッド・明示型ネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 50.68436093869381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised generation of high-quality multi-view-consistent images and 3D
shapes using only collections of single-view 2D photographs has been a
long-standing challenge. Existing 3D GANs are either compute-intensive or make
approximations that are not 3D-consistent; the former limits quality and
resolution of the generated images and the latter adversely affects multi-view
consistency and shape quality. In this work, we improve the computational
efficiency and image quality of 3D GANs without overly relying on these
approximations. For this purpose, we introduce an expressive hybrid
explicit-implicit network architecture that, together with other design
choices, synthesizes not only high-resolution multi-view-consistent images in
real time but also produces high-quality 3D geometry. By decoupling feature
generation and neural rendering, our framework is able to leverage
state-of-the-art 2D CNN generators, such as StyleGAN2, and inherit their
efficiency and expressiveness. We demonstrate state-of-the-art 3D-aware
synthesis with FFHQ and AFHQ Cats, among other experiments.
- Abstract(参考訳): シングルビュー2D画像のみを用いた高品質なマルチビュー一貫性画像と3次元形状の教師なし生成は、長年にわたる課題である。
既存の3d ganは計算集約的または3d一貫性のない近似であり、前者は生成した画像の品質と解像度を制限し、後者はマルチビューの一貫性と形状品質に悪影響を及ぼす。
本研究では、3D GANの計算効率と画質をこれらの近似に頼らずに改善する。
そこで本研究では,高解像度なマルチビュー一貫性の画像だけでなく,高画質な3D画像もリアルタイムで合成する,表現型ハイブリッド型明示型ネットワークアーキテクチャを提案する。
特徴生成とニューラルレンダリングを分離することにより、我々のフレームワークはStyleGAN2のような最先端の2D CNNジェネレータを活用し、その効率と表現性を継承することができる。
FFHQとAFHQ Catsによる最先端の3D認識合成を実証する。
関連論文リスト
- Unique3D: High-Quality and Efficient 3D Mesh Generation from a Single Image [28.759158325097093]
Unique3Dは、シングルビュー画像から高品質な3Dメッシュを効率的に生成するための、新しい画像間3Dフレームワークである。
我々のフレームワークは、最先端世代の忠実さと強力な一般化性を備えている。
論文 参考訳(メタデータ) (2024-05-30T17:59:54Z) - LAM3D: Large Image-Point-Cloud Alignment Model for 3D Reconstruction from Single Image [64.94932577552458]
大規模再構成モデルは、単一または複数入力画像から自動3Dコンテンツ生成の領域において大きな進歩を遂げている。
彼らの成功にもかかわらず、これらのモデルはしばしば幾何学的不正確な3Dメッシュを生成し、画像データからのみ3D形状を推論する固有の課題から生まれた。
生成した3Dメッシュの忠実度を高めるために3Dポイントクラウドデータを利用する新しいフレームワークであるLarge Image and Point Cloud Alignment Model (LAM3D)を導入する。
論文 参考訳(メタデータ) (2024-05-24T15:09:12Z) - Wonder3D: Single Image to 3D using Cross-Domain Diffusion [105.16622018766236]
Wonder3Dは、単一視点画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である。
画像から3Dまでのタスクの品質,一貫性,効率性を総括的に改善するため,領域間拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-10-23T15:02:23Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Multi-View Consistent Generative Adversarial Networks for 3D-aware Image
Synthesis [48.33860286920389]
3D認識画像合成は、3D表現を学習することにより、複数のビューからオブジェクトの画像を生成することを目的としている。
既存のアプローチには幾何学的制約がないため、通常はマルチビュー一貫性のある画像を生成することができない。
幾何制約付き高品質な3次元画像合成のためのマルチビュー一貫性ジェネレータネットワーク(MVCGAN)を提案する。
論文 参考訳(メタデータ) (2022-04-13T11:23:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。