論文の概要: Skyfall-GS: Synthesizing Immersive 3D Urban Scenes from Satellite Imagery
- arxiv url: http://arxiv.org/abs/2510.15869v1
- Date: Fri, 17 Oct 2025 17:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.740403
- Title: Skyfall-GS: Synthesizing Immersive 3D Urban Scenes from Satellite Imagery
- Title(参考訳): Skyfall-GS:衛星画像による没入型3D都市シーンの合成
- Authors: Jie-Ying Lee, Yi-Ruei Liu, Shr-Ruei Tsai, Wei-Cheng Chang, Chung-Ho Wu, Jiewen Chan, Zhenjun Zhao, Chieh Hubert Lin, Yu-Lun Liu,
- Abstract要約: コストのかかる3Dアノテーションを伴わない最初の都市ブロックスケール3Dシーン作成フレームワークである textbfSkyfall-GS を提案する。
我々は、幾何的およびフォトリアリスティックなテクスチャを徐々に強化するために、カリキュラム駆動の反復的洗練戦略を調整する。
- 参考スコア(独自算出の注目度): 13.938311471105303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthesizing large-scale, explorable, and geometrically accurate 3D urban scenes is a challenging yet valuable task in providing immersive and embodied applications. The challenges lie in the lack of large-scale and high-quality real-world 3D scans for training generalizable generative models. In this paper, we take an alternative route to create large-scale 3D scenes by synergizing the readily available satellite imagery that supplies realistic coarse geometry and the open-domain diffusion model for creating high-quality close-up appearances. We propose \textbf{Skyfall-GS}, the first city-block scale 3D scene creation framework without costly 3D annotations, also featuring real-time, immersive 3D exploration. We tailor a curriculum-driven iterative refinement strategy to progressively enhance geometric completeness and photorealistic textures. Extensive experiments demonstrate that Skyfall-GS provides improved cross-view consistent geometry and more realistic textures compared to state-of-the-art approaches. Project page: https://skyfall-gs.jayinnn.dev/
- Abstract(参考訳): 大規模で探索可能で幾何学的に正確な3D都市シーンを合成することは、没入型で具体化されたアプリケーションを提供する上で、難しいが価値のある作業である。
課題は、一般化可能な生成モデルをトレーニングするための大規模で高品質な現実世界の3Dスキャンが欠如していることにある。
本稿では,現実的な粗い形状を提供する衛星画像と,高品質なクローズアップ画像を作成するためのオープンドメイン拡散モデルとを相乗化することにより,大規模3Dシーンを作成するための代替手段を提案する。
本稿では,3Dアノテーションを伴わない最初の都市ブロック規模の3Dシーン作成フレームワークである‘textbf{Skyfall-GS}を提案する。
我々は、幾何学的完全性やフォトリアリスティックなテクスチャを徐々に向上させるために、カリキュラム駆動の反復的洗練戦略を調整する。
広範囲にわたる実験により、Skyfall-GSは、最先端のアプローチと比較して、クロスビュー一貫性のある幾何とより現実的なテクスチャを提供することを示した。
プロジェクトページ: https://skyfall-gs.jayinnn.dev/
関連論文リスト
- From Orbit to Ground: Generative City Photogrammetry from Extreme Off-Nadir Satellite Images [31.421617684580834]
衛星画像からの都市規模の3D再構成は、極端視点外挿の課題を示す。
これにより、画像ソースから90ドル近い視点ギャップを推測する必要がある。
都市構造と衛星入力に適した2つの設計選択を提案する。
論文 参考訳(メタデータ) (2025-12-08T13:01:12Z) - Constructing a 3D Scene from a Single Image [31.11317559252235]
SceneFuse-3Dは、単一のトップダウンビューからコヒーレントな3Dシーンを合成するために設計されたトレーニング不要のフレームワークである。
入力画像を重なり合う領域に分解し、事前訓練された3Dオブジェクトジェネレータを用いてそれぞれを生成する。
このモジュラー設計により、3次元の監督や微調整を必要とせず、解像度のボトルネックを克服し、空間構造を維持できる。
論文 参考訳(メタデータ) (2025-05-21T17:10:47Z) - SynCity: Training-Free Generation of 3D Worlds [107.69875149880679]
テキスト記述から3次元世界を生成するためのトレーニング不要かつ最適化不要なアプローチであるSynCityを提案する。
3Dと2Dのジェネレータが組み合わさって、拡大するシーンを生成する方法を示す。
論文 参考訳(メタデータ) (2025-03-20T17:59:40Z) - ReconX: Reconstruct Any Scene from Sparse Views with Video Diffusion Model [16.14713604672497]
ReconXは、時間生成タスクとして曖昧な再構築課題を再編成する、新しい3Dシーン再構築パラダイムである。
提案したReconXはまずグローバルポイントクラウドを構築し、3D構造条件としてコンテキスト空間にエンコードする。
この条件に導かれ、ビデオ拡散モデルは、ディテール保存され、高い3D一貫性を示すビデオフレームを合成する。
論文 参考訳(メタデータ) (2024-08-29T17:59:40Z) - Director3D: Real-world Camera Trajectory and 3D Scene Generation from Text [61.9973218744157]
実世界の3Dシーンと適応カメラトラジェクトリの両方を生成するように設計された,堅牢なオープンワールドテキスト・ツー・3D生成フレームワークであるDirector3Dを紹介する。
Director3Dは既存の手法よりも優れており、実世界の3D生成において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-06-25T14:42:51Z) - Enhanced 3D Urban Scene Reconstruction and Point Cloud Densification using Gaussian Splatting and Google Earth Imagery [19.67372661944804]
ウォータールー大学を中心としたウォータールー地域の3次元ガウス散乱モデルを構築した。
我々は,従来の3次元視線合成結果よりもはるかに高い視線合成結果を得ることができる。
論文 参考訳(メタデータ) (2024-05-17T18:00:07Z) - DreamScene360: Unconstrained Text-to-3D Scene Generation with Panoramic Gaussian Splatting [56.101576795566324]
テキストから3D 360$circ$のシーン生成パイプラインを提示する。
提案手法は, 2次元拡散モデルの生成力を利用して, 自己複製を促進する。
当社の手法は,360ドル(約3万2000円)の視野内で,グローバルに一貫した3Dシーンを提供する。
論文 参考訳(メタデータ) (2024-04-10T10:46:59Z) - Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。