論文の概要: GEN3D: Generating Domain-Free 3D Scenes from a Single Image
- arxiv url: http://arxiv.org/abs/2511.14291v1
- Date: Tue, 18 Nov 2025 09:40:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.035124
- Title: GEN3D: Generating Domain-Free 3D Scenes from a Single Image
- Title(参考訳): gen3D:単一画像からドメインフリーの3Dシーンを生成する
- Authors: Yuxin Zhang, Ziyu Lu, Hongbo Duan, Keyu Fan, Pengting Luo, Peiyu Zhuang, Mengyu Yang, Houde Liu,
- Abstract要約: Gen3dは、1つの画像から高品質で広スコープで汎用的な3Dシーンを生成する新しい方法である。
多様なデータセットに対する実験により,本手法の強い一般化能力と優れた性能が示された。
- 参考スコア(独自算出の注目度): 13.128331445276764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent advancements in neural 3D reconstruction, the dependence on dense multi-view captures restricts their broader applicability. Additionally, 3D scene generation is vital for advancing embodied AI and world models, which depend on diverse, high-quality scenes for learning and evaluation. In this work, we propose Gen3d, a novel method for generation of high-quality, wide-scope, and generic 3D scenes from a single image. After the initial point cloud is created by lifting the RGBD image, Gen3d maintains and expands its world model. The 3D scene is finalized through optimizing a Gaussian splatting representation. Extensive experiments on diverse datasets demonstrate the strong generalization capability and superior performance of our method in generating a world model and Synthesizing high-fidelity and consistent novel views.
- Abstract(参考訳): ニューラル3D再構成の最近の進歩にもかかわらず、密集したマルチビューキャプチャへの依存は、より広範な適用性を制限している。
さらに、3Dシーン生成は、学習と評価のための多種多様な高品質なシーンに依存する、エンボディAIと世界モデルの発展に不可欠である。
本稿では,1枚の画像から高品質,ワイドスコープ,ジェネリック3次元シーンを生成する新しい手法であるGen3dを提案する。
RGBDイメージを持ち上げて最初のポイントクラウドが生成されると、Gen3dは世界モデルをメンテナンスし拡張する。
3Dシーンは、ガウススプラッティング表現を最適化することで終了する。
多様なデータセットに対する大規模な実験は、世界モデルの生成における我々の手法の強力な一般化能力と優れた性能を示し、高忠実で一貫した新しいビューを合成する。
関連論文リスト
- Constructing a 3D Scene from a Single Image [31.11317559252235]
SceneFuse-3Dは、単一のトップダウンビューからコヒーレントな3Dシーンを合成するために設計されたトレーニング不要のフレームワークである。
入力画像を重なり合う領域に分解し、事前訓練された3Dオブジェクトジェネレータを用いてそれぞれを生成する。
このモジュラー設計により、3次元の監督や微調整を必要とせず、解像度のボトルネックを克服し、空間構造を維持できる。
論文 参考訳(メタデータ) (2025-05-21T17:10:47Z) - 3D Scene Generation: A Survey [41.202497008985425]
3Dシーン生成は、没入型メディア、ロボティクス、自律運転、エンボディドAIといったアプリケーションのために、空間的に構造化され、意味的に意味があり、フォトリアリスティックな環境を合成することを目指している。
このレビューでは、3Dシーン生成の最近の進歩を整理し、生成AI、3Dビジョン、具体化インテリジェンスとの交差点における有望な方向性を強調している。
論文 参考訳(メタデータ) (2025-05-08T17:59:54Z) - Prometheus: 3D-Aware Latent Diffusion Models for Feed-Forward Text-to-3D Scene Generation [51.36926306499593]
Prometheusはオブジェクトレベルとシーンレベルの両方を秒単位でテキストから3D生成するための3D対応潜時拡散モデルである。
遅延拡散パラダイムにおいて、3Dシーン生成を多視点, フィードフォワード, ピクセルアラインな3Dガウス生成として定式化する。
論文 参考訳(メタデータ) (2024-12-30T17:44:23Z) - Wonderland: Navigating 3D Scenes from a Single Image [43.99037613068823]
本研究では,映像拡散モデルからの潜伏分を利用した大規模再構成モデルを導入し,映像の3次元ガウススプラッティングをフィードフォワードで予測する。
プログレッシブ・ラーニング・ストラテジーを用いて3次元再構成モデルをトレーニングし,高品質でワイドスコープ,ジェネリックな3次元シーンの効率的な生成を可能にする。
論文 参考訳(メタデータ) (2024-12-16T18:58:17Z) - ViewCrafter: Taming Video Diffusion Models for High-fidelity Novel View Synthesis [63.169364481672915]
単一またはスパース画像からジェネリックシーンの高忠実な新規ビューを合成する新しい方法である textbfViewCrafter を提案する。
提案手法は,映像拡散モデルの強力な生成能力と,ポイントベース表現によって提供される粗い3D手がかりを利用して高品質な映像フレームを生成する。
論文 参考訳(メタデータ) (2024-09-03T16:53:19Z) - HoloDreamer: Holistic 3D Panoramic World Generation from Text Descriptions [31.342899807980654]
3Dシーン生成は、仮想現実、ゲーム、映画産業など、さまざまな領域で高い需要がある。
フル3Dシーンの全体的初期化として,最初に高精細パノラマを生成するフレームワークであるHoloDreamerを紹介する。
そして、3Dガウススティング(3D-GS)を活用して3Dシーンを迅速に再構築し、ビュー一貫性と完全に囲まれた3Dシーンの作成を容易にする。
論文 参考訳(メタデータ) (2024-07-21T14:52:51Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。