論文の概要: A Survey on Deep Generative 3D-aware Image Synthesis
- arxiv url: http://arxiv.org/abs/2210.14267v3
- Date: Mon, 2 Oct 2023 18:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 10:58:30.232888
- Title: A Survey on Deep Generative 3D-aware Image Synthesis
- Title(参考訳): 深部生成型3次元画像合成に関する研究
- Authors: Weihao Xia, Jing-Hao Xue
- Abstract要約: 深部生成3D認識画像合成は3D一貫性のある高輝度画像を生成する。
本研究は,新たな研究者を紹介し,有用な参考資料を提供し,今後の研究方向性を刺激することを目的としている。
- 参考スコア(独自算出の注目度): 40.670232067232796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen remarkable progress in deep learning powered visual
content creation. This includes deep generative 3D-aware image synthesis, which
produces high-idelity images in a 3D-consistent manner while simultaneously
capturing compact surfaces of objects from pure image collections without the
need for any 3D supervision, thus bridging the gap between 2D imagery and 3D
reality. The ield of computer vision has been recently captivated by the task
of deep generative 3D-aware image synthesis, with hundreds of papers appearing
in top-tier journals and conferences over the past few years (mainly the past
two years), but there lacks a comprehensive survey of this remarkable and swift
progress. Our survey aims to introduce new researchers to this topic, provide a
useful reference for related works, and stimulate future research directions
through our discussion section. Apart from the presented papers, we aim to
constantly update the latest relevant papers along with corresponding
implementations at https://weihaox.github.io/3D-aware-Gen.
- Abstract(参考訳): 近年,深層学習によるビジュアルコンテンツ作成が著しい進歩を遂げている。
これには、3Dの監督を必要とせずに、純粋な画像コレクションからオブジェクトのコンパクトな表面を同時にキャプチャし、3D画像と3D現実のギャップを埋める、深部生成的な3D画像合成が含まれる。
コンピュータビジョンのieldは、近年、過去数年間(主に過去2年間)のトップクラスのジャーナルやカンファレンスに何百もの論文が登場し、深層3d認識画像合成のタスクに魅了されているが、この注目すべきかつ迅速な進歩に関する総合的な調査は欠落している。
本研究の目的は,新たな研究者の紹介,関連研究の参考となる資料の提供,今後の研究方向性の育成である。
提示された論文とは別に、私たちは最新の関連論文とhttps://weihaox.github.io/3d-aware-genで対応する実装を常に更新することを目指している。
関連論文リスト
- A Comprehensive Survey on 3D Content Generation [148.434661725242]
3Dコンテンツ生成は学術的価値と実践的価値の両方を示している。
新しい分類法が提案され,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する。
論文 参考訳(メタデータ) (2024-02-02T06:20:44Z) - IPDreamer: Appearance-Controllable 3D Object Generation with Complex Image Prompts [90.49024750432139]
IPDreamerは複雑な$textbfI$mage $textbfP$romptsから複雑な外観特徴をキャプチャし、合成した3Dオブジェクトをこれらの特徴と整合させる。
IPDreamerはテキストと複雑な画像のプロンプトに整合した高品質な3Dオブジェクトを一貫して生成することを示した。
論文 参考訳(メタデータ) (2023-10-09T03:11:08Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - 3D-Aware Video Generation [149.5230191060692]
本研究では, 3D 対応ビデオの生成を学習する 4 次元生成敵ネットワーク (GAN) について検討する。
神経暗黙表現と時間認識判別器を組み合わせることで,モノクラービデオのみを教師する3D映像を合成するGANフレームワークを開発した。
論文 参考訳(メタデータ) (2022-06-29T17:56:03Z) - pi-GAN: Periodic Implicit Generative Adversarial Networks for 3D-Aware
Image Synthesis [45.51447644809714]
高品質な3D画像合成のための新しい生成モデルである周期的インプリシット生成適応ネットワーク(pi$-GAN または pi-GAN)を提案する。
提案手法は,複数の実・合成データセットを用いた3次元認識画像合成のための最先端結果を得る。
論文 参考訳(メタデータ) (2020-12-02T01:57:46Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。