論文の概要: Sat2RealCity: Geometry-Aware and Appearance-Controllable 3D Urban Generation from Satellite Imagery
- arxiv url: http://arxiv.org/abs/2511.11470v1
- Date: Fri, 14 Nov 2025 16:42:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.727099
- Title: Sat2RealCity: Geometry-Aware and Appearance-Controllable 3D Urban Generation from Satellite Imagery
- Title(参考訳): Sat2RealCity:衛星画像からの幾何学的認識と出現可能な3次元都市生成
- Authors: Yijie Kang, Xinliang Wang, Zhenyu Wu, Yifeng Shi, Hailong Zhu,
- Abstract要約: Sat2RealCity(サット2RealCity)は、現実世界の衛星画像から3D都市を生成するための幾何学的・外観制御可能なフレームワークである。
空間トポロジからビルディングインスタンスへの解釈可能な幾何学的生成を実現するためのOSMベースの空間先行戦略を導入する。
MLLMを用いた意味誘導型生成パイプラインを構築し,意味解釈と幾何学的再構成を行う。
- 参考スコア(独自算出の注目度): 12.88788681361607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generative modeling have substantially enhanced 3D urban generation, enabling applications in digital twins, virtual cities, and large-scale simulations. However, existing methods face two key challenges: (1) the need for large-scale 3D city assets for supervised training, which are difficult and costly to obtain, and (2) reliance on semantic or height maps, which are used exclusively for generating buildings in virtual worlds and lack connection to real-world appearance, limiting the realism and generalizability of generated cities. To address these limitations, we propose Sat2RealCity, a geometry-aware and appearance-controllable framework for 3D urban generation from real-world satellite imagery. Unlike previous city-level generation methods, Sat2RealCity builds generation upon individual building entities, enabling the use of rich priors and pretrained knowledge from 3D object generation while substantially reducing dependence on large-scale 3D city assets. Specifically, (1) we introduce the OSM-based spatial priors strategy to achieve interpretable geometric generation from spatial topology to building instances; (2) we design an appearance-guided controllable modeling mechanism for fine-grained appearance realism and style control; and (3) we construct an MLLM-powered semantic-guided generation pipeline, bridging semantic interpretation and geometric reconstruction. Extensive quantitative and qualitative experiments demonstrate that Sat2RealCity significantly surpasses existing baselines in structural consistency and appearance realism, establishing a strong foundation for real-world aligned 3D urban content creation. The code will be released soon.
- Abstract(参考訳): 生成モデリングの最近の進歩は、3次元都市生成を大幅に強化し、デジタル双生児、仮想都市、大規模シミュレーションの応用を可能にした。
しかし,既存の手法では,(1)管理訓練に要する大規模3次元都市資産の必要性,(2)仮想空間における建物の生成にのみ使用される意味マップや高さマップへの依存,そして,現実的な外観との結びつきの欠如,生成都市の現実性や一般化可能性の制限,という2つの課題に直面している。
これらの制約に対処するために,実世界の衛星画像から3次元都市を創出するための幾何学的・外観制御可能なフレームワークであるSat2RealCityを提案する。
従来の都市レベルの生成方法とは異なり、Sat2RealCityは、個々のビルディングエンティティに基づいて生成を構築し、リッチな事前情報と3Dオブジェクト生成からの事前学習知識の使用を可能にし、大規模な3D都市資産への依存を大幅に低減する。
具体的には,(1)空間トポロジからビルディングインスタンスへの解釈可能な幾何学的生成を実現するためのOSMベースの空間事前戦略,(2)きめ細かな外観リアリズムとスタイル制御のための外観誘導制御可能なモデリング機構を設計し,(3)MLLMを利用した意味誘導生成パイプラインを構築し,意味解釈と幾何学的再構成を行う。
サット2RealCityは、構造的一貫性と外観的リアリズムにおいて、既存のベースラインを大幅に超え、現実世界の3次元都市コンテンツ制作の強力な基盤を確立している。
コードはまもなくリリースされる。
関連論文リスト
- WorldGrow: Generating Infinite 3D World [75.81531067447203]
我々は、無限に拡張可能な3D世界、すなわちコヒーレントな幾何学と現実的な外観を持つ大規模で連続的な環境を生み出すという課題に取り組む。
本研究では,非有界な3次元シーン合成のための階層的フレームワークWorldGrowを提案する。
提案手法は,(1)高品質なシーンブロックを抽出し,シーン生成に適した3D構造化潜在表現を作成するデータキュレーションパイプライン,(2)コンテキスト認識シーン拡張を可能にする3Dブロックインペイント機構,(3)グローバルなレイアウトの妥当性と局所幾何学的/音声的忠実性の両立を保証する粗大かつ微細な生成戦略,の3つのコアコンポーネントを特徴とする。
論文 参考訳(メタデータ) (2025-10-24T17:39:52Z) - Sat2City: 3D City Generation from A Single Satellite Image with Cascaded Latent Diffusion [18.943643720564996]
Sat2Cityは、スパースボクセルグリッドの表現能力を潜在拡散モデルと相乗化する新しいフレームワークである。
衛星視高マップと組み合わせた大規模3D都市を合成したデータセットを提案する。
本フレームワークは, 衛星画像から詳細な3次元構造を生成し, 既存の都市モデルに比べ, 忠実度に優れていた。
論文 参考訳(メタデータ) (2025-07-06T14:30:08Z) - CityX: Controllable Procedural Content Generation for Unbounded 3D Cities [50.10101235281943]
現在の生成法は多様性、可制御性または忠実度に乏しい。
本研究では,高忠実度生成のための手続き的コンテンツ生成(PCG)技術を利用する。
我々は,OSM,セマンティックマップ,衛星画像などのマルチモーダル命令を実行可能なプログラムに変換するマルチエージェントフレームワークを開発した。
提案手法はCityXと呼ばれ,多種多様で制御可能でリアルな3D都市景観の創出において,その優位性を実証するものである。
論文 参考訳(メタデータ) (2024-07-24T18:05:13Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - CityDreamer: Compositional Generative Model of Unbounded 3D Cities [44.203932215464214]
CityDreamerは、非有界な3D都市向けに特別に設計された合成モデルである。
我々は、鳥の視線シーン表現を採用し、インスタンス指向と物指向のニューラルフィールドの両方にボリュームレンダリングを採用する。
CityDreamerは、現実的な3D都市を生成するだけでなく、生成された都市内の局所的な編集でも、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-01T17:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。