論文の概要: pi-GAN: Periodic Implicit Generative Adversarial Networks for 3D-Aware
Image Synthesis
- arxiv url: http://arxiv.org/abs/2012.00926v2
- Date: Mon, 5 Apr 2021 23:18:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:46:52.647223
- Title: pi-GAN: Periodic Implicit Generative Adversarial Networks for 3D-Aware
Image Synthesis
- Title(参考訳): pi-GAN:3次元画像合成のための周期的インシシデント・ジェネレータ・ネットワーク
- Authors: Eric R. Chan, Marco Monteiro, Petr Kellnhofer, Jiajun Wu, Gordon
Wetzstein
- Abstract要約: 高品質な3D画像合成のための新しい生成モデルである周期的インプリシット生成適応ネットワーク(pi$-GAN または pi-GAN)を提案する。
提案手法は,複数の実・合成データセットを用いた3次元認識画像合成のための最先端結果を得る。
- 参考スコア(独自算出の注目度): 45.51447644809714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We have witnessed rapid progress on 3D-aware image synthesis, leveraging
recent advances in generative visual models and neural rendering. Existing
approaches however fall short in two ways: first, they may lack an underlying
3D representation or rely on view-inconsistent rendering, hence synthesizing
images that are not multi-view consistent; second, they often depend upon
representation network architectures that are not expressive enough, and their
results thus lack in image quality. We propose a novel generative model, named
Periodic Implicit Generative Adversarial Networks ($\pi$-GAN or pi-GAN), for
high-quality 3D-aware image synthesis. $\pi$-GAN leverages neural
representations with periodic activation functions and volumetric rendering to
represent scenes as view-consistent 3D representations with fine detail. The
proposed approach obtains state-of-the-art results for 3D-aware image synthesis
with multiple real and synthetic datasets.
- Abstract(参考訳): 我々は、3d認識画像合成の急速な進歩を目撃し、生成的視覚モデルとニューラルレンダリングの最近の進歩を活用している。
しかし、既存のアプローチは2つの点で不足している: まず、基礎となる3D表現を欠いているか、ビュー一貫性のないレンダリングに依存しているため、マルチビュー一貫性のないイメージを合成する。
高品質な3D画像合成のための新しい生成モデルである周期的インプリシット生成適応ネットワーク(\pi$-GAN または pi-GAN)を提案する。
$\pi$-GANは、周期的なアクティベーション関数とボリュームレンダリングを備えた神経表現を利用して、シーンをビュー一貫性のある3D表現として詳細に表現する。
提案手法は,複数の実データと合成データを用いた3次元認識画像合成の最先端結果を得る。
関連論文リスト
- Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - Generative Novel View Synthesis with 3D-Aware Diffusion Models [96.78397108732233]
単一入力画像から3D対応の新規ビュー合成のための拡散モデルを提案する。
提案手法は既存の2次元拡散バックボーンを利用するが,重要な点として,幾何学的先行を3次元特徴体積の形で組み込む。
新たなビュー生成に加えて,本手法は3次元一貫性シーケンスを自己回帰的に合成する機能を備えている。
論文 参考訳(メタデータ) (2023-04-05T17:15:47Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Next3D: Generative Neural Texture Rasterization for 3D-Aware Head
Avatars [36.4402388864691]
3D-Aware Generative Adversarial Network (GANs) は, 単一視点2D画像のコレクションのみを用いて, 高忠実かつ多視点の顔画像を合成する。
最近の研究は、3D Morphable Face Model (3DMM) を用いて、生成放射場における変形を明示的または暗黙的に記述している。
本研究では,非構造化2次元画像から生成的,高品質,かつ3D一貫性のある顔アバターの教師なし学習のための新しい3D GANフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:40:46Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - 3D-aware Image Synthesis via Learning Structural and Textural
Representations [39.681030539374994]
生成モデルを作成することは、2D画像空間と3D物理世界を橋渡しするが、まだ難しい。
近年、GAN(Generative Adversarial Network)とNeRF(Neural Radiance Field)という3次元座標をピクセル値にマッピングする手法が試みられている。
本稿では,構造表現とテクスチャ表現を明示的に学習することで,高忠実度3次元画像合成のための新しいフレームワーク,VolumeGANを提案する。
論文 参考訳(メタデータ) (2021-12-20T18:59:40Z) - Efficient Geometry-aware 3D Generative Adversarial Networks [50.68436093869381]
既存の3D GANは計算集約的であるか、3D一貫性のない近似を行う。
本研究では、3D GANの計算効率と画質をこれらの近似に頼らずに改善する。
本稿では,高解像度のマルチビュー一貫性画像だけでなく,高品質な3次元形状をリアルタイムに合成する,表現型ハイブリッド・明示型ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-15T08:01:43Z) - GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis [43.4859484191223]
近年,単一シーンの新規なビュー合成に成功している放射場生成モデルを提案する。
マルチスケールのパッチベース判別器を導入し,非姿勢の2次元画像からモデルを訓練しながら高解像度画像の合成を実演する。
論文 参考訳(メタデータ) (2020-07-05T20:37:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。