論文の概要: 3D Scene Generation: A Survey
- arxiv url: http://arxiv.org/abs/2505.05474v1
- Date: Thu, 08 May 2025 17:59:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:50.001273
- Title: 3D Scene Generation: A Survey
- Title(参考訳): 3D Scene Generation: A Survey
- Authors: Beichen Wen, Haozhe Xie, Zhaoxi Chen, Fangzhou Hong, Ziwei Liu,
- Abstract要約: 3Dシーン生成は、没入型メディア、ロボティクス、自律運転、エンボディドAIといったアプリケーションのために、空間的に構造化され、意味的に意味があり、フォトリアリスティックな環境を合成することを目指している。
このレビューでは、3Dシーン生成の最近の進歩を整理し、生成AI、3Dビジョン、具体化インテリジェンスとの交差点における有望な方向性を強調している。
- 参考スコア(独自算出の注目度): 41.202497008985425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene generation seeks to synthesize spatially structured, semantically meaningful, and photorealistic environments for applications such as immersive media, robotics, autonomous driving, and embodied AI. Early methods based on procedural rules offered scalability but limited diversity. Recent advances in deep generative models (e.g., GANs, diffusion models) and 3D representations (e.g., NeRF, 3D Gaussians) have enabled the learning of real-world scene distributions, improving fidelity, diversity, and view consistency. Recent advances like diffusion models bridge 3D scene synthesis and photorealism by reframing generation as image or video synthesis problems. This survey provides a systematic overview of state-of-the-art approaches, organizing them into four paradigms: procedural generation, neural 3D-based generation, image-based generation, and video-based generation. We analyze their technical foundations, trade-offs, and representative results, and review commonly used datasets, evaluation protocols, and downstream applications. We conclude by discussing key challenges in generation capacity, 3D representation, data and annotations, and evaluation, and outline promising directions including higher fidelity, physics-aware and interactive generation, and unified perception-generation models. This review organizes recent advances in 3D scene generation and highlights promising directions at the intersection of generative AI, 3D vision, and embodied intelligence. To track ongoing developments, we maintain an up-to-date project page: https://github.com/hzxie/Awesome-3D-Scene-Generation.
- Abstract(参考訳): 3Dシーン生成は、没入型メディア、ロボティクス、自律運転、エンボディドAIといったアプリケーションのために、空間的に構造化され、意味的に意味があり、フォトリアリスティックな環境を合成することを目指している。
手続き規則に基づく初期の手法はスケーラビリティを提供するが、多様性は限られていた。
深部生成モデル(例えば、GAN、拡散モデル)と3次元表現(例えば、NeRF、3Dガウス)の最近の進歩は、現実世界のシーン分布の学習を可能にし、忠実度、多様性、ビュー一貫性を改善している。
近年の拡散モデルによる3次元シーン合成の橋渡しや、画像合成問題やビデオ合成問題として生成のフレーミングによるフォトリアリズムなどの進歩が進んでいる。
この調査は、最先端のアプローチを体系的に概観し、プロシージャ生成、ニューラル3Dベース生成、画像ベース生成、ビデオベース生成の4つのパラダイムに分類する。
我々は、彼らの技術基盤、トレードオフ、代表的な結果を分析し、よく使われるデータセット、評価プロトコル、下流アプリケーションについてレビューする。
我々は、生成能力、3D表現、データとアノテーション、評価における重要な課題について議論し、高い忠実度、物理認識と対話的な生成、統合された知覚生成モデルを含む有望な方向性の概要を述べる。
このレビューでは、3Dシーン生成の最近の進歩を整理し、生成的AI、3Dビジョン、具体的インテリジェンスとの交差点における有望な方向性を強調している。
進行中の開発を追跡するため、最新のプロジェクトページをメンテナンスしている。
関連論文リスト
- Recent Advance in 3D Object and Scene Generation: A Survey [14.673302810271219]
本調査は,最先端の3D生成技術に関する構造化された理解を読者に提供することを目的としている。
本稿では,レイアウト誘導合成,2次元先行シーン生成,ルール駆動モデリングの3つの主要なパラダイムに着目した。
論文 参考訳(メタデータ) (2025-04-16T03:22:06Z) - Prometheus: 3D-Aware Latent Diffusion Models for Feed-Forward Text-to-3D Scene Generation [51.36926306499593]
Prometheusはオブジェクトレベルとシーンレベルの両方を秒単位でテキストから3D生成するための3D対応潜時拡散モデルである。
遅延拡散パラダイムにおいて、3Dシーン生成を多視点, フィードフォワード, ピクセルアラインな3Dガウス生成として定式化する。
論文 参考訳(メタデータ) (2024-12-30T17:44:23Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Advances in 3D Generation: A Survey [54.95024616672868]
3Dコンテンツ生成の分野は急速に発展しており、高品質で多様な3Dモデルの作成を可能にしている。
具体的には,3次元生成のバックボーンとして機能する3D表現を紹介する。
本稿では,アルゴリズムのパラダイムのタイプによって分類された,生成手法に関する急成長する文献の概要について概説する。
論文 参考訳(メタデータ) (2024-01-31T13:06:48Z) - Progress and Prospects in 3D Generative AI: A Technical Overview
including 3D human [51.58094069317723]
本稿は,2023年後半に主に刊行された関連論文の概要と概要を概説することを目的とする。
最初は、AIが生成したオブジェクトモデルを3Dで議論し、続いて生成された3Dの人間モデル、そして最後に生成された3Dの人間の動きを、決定的な要約と未来へのビジョンで結論付ける。
論文 参考訳(メタデータ) (2024-01-05T03:41:38Z) - GINA-3D: Learning to Generate Implicit Neural Assets in the Wild [38.51391650845503]
GINA-3Dは、カメラとLiDARセンサーの実際の運転データを使用して、多様な車や歩行者の3D暗黙的な神経資産を作成する生成モデルである。
車両と歩行者の1.2万枚以上の画像を含む大規模オブジェクト中心データセットを構築した。
生成した画像とジオメトリの両面において、品質と多様性の最先端性能を実現することを実証した。
論文 参考訳(メタデータ) (2023-04-04T23:41:20Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。