論文の概要: Generative AI for Urban Planning: Synthesizing Satellite Imagery via Diffusion Models
- arxiv url: http://arxiv.org/abs/2505.08833v1
- Date: Tue, 13 May 2025 04:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.247345
- Title: Generative AI for Urban Planning: Synthesizing Satellite Imagery via Diffusion Models
- Title(参考訳): 都市計画のための生成AI:拡散モデルによる衛星画像の合成
- Authors: Qingyi Wang, Yuebing Liang, Yunhan Zheng, Kaiyuan Xu, Jinhua Zhao, Shenhao Wang,
- Abstract要約: 我々は、土地利用記述、インフラ、自然環境に照らした高忠実な衛星画像を生成するために、制御ネットで拡張された最先端の安定拡散モデルを適用した。
米国の主要3都市からのデータを用いて,提案した拡散モデルが,土地利用形態,道路網,水域などによって,現実的で多様な都市景観を生成することを示す。
我々のモデルは高いFIDとKIDのスコアを達成し、多様な都市環境におけるロバスト性を実証する。
- 参考スコア(独自算出の注目度): 9.385767746826286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI offers new opportunities for automating urban planning by creating site-specific urban layouts and enabling flexible design exploration. However, existing approaches often struggle to produce realistic and practical designs at scale. Therefore, we adapt a state-of-the-art Stable Diffusion model, extended with ControlNet, to generate high-fidelity satellite imagery conditioned on land use descriptions, infrastructure, and natural environments. To overcome data availability limitations, we spatially link satellite imagery with structured land use and constraint information from OpenStreetMap. Using data from three major U.S. cities, we demonstrate that the proposed diffusion model generates realistic and diverse urban landscapes by varying land-use configurations, road networks, and water bodies, facilitating cross-city learning and design diversity. We also systematically evaluate the impacts of varying language prompts and control imagery on the quality of satellite imagery generation. Our model achieves high FID and KID scores and demonstrates robustness across diverse urban contexts. Qualitative assessments from urban planners and the general public show that generated images align closely with design descriptions and constraints, and are often preferred over real images. This work establishes a benchmark for controlled urban imagery generation and highlights the potential of generative AI as a tool for enhancing planning workflows and public engagement.
- Abstract(参考訳): Generative AIは、サイト固有の都市レイアウトを作成し、柔軟なデザイン探索を可能にすることで、都市計画を自動化する新しい機会を提供する。
しかし、既存のアプローチは、しばしば現実的で実用的な設計を大規模に作るのに苦労する。
そこで我々は,土地利用記述,インフラ,自然環境を条件とした高忠実度衛星画像を生成するために,制御ネットで拡張された最先端の安定拡散モデルを適用した。
データ可用性の限界を克服するために、衛星画像と構造化土地利用とOpenStreetMapからの制約情報とを空間的にリンクする。
米国の主要3都市からのデータを用いて、提案した拡散モデルが、土地利用形態、道路網、水域の変化によって現実的で多様な都市景観を生成し、都市横断学習と設計の多様性を促進することを実証した。
また,各種言語プロンプトの影響を系統的に評価し,衛星画像の画質への影響を制御した。
我々のモデルは高いFIDとKIDのスコアを達成し、多様な都市環境におけるロバスト性を実証する。
都市計画者や一般大衆からの質的な評価は、生成された画像は設計記述や制約と密接に一致しており、実際の画像よりも好まれることを示している。
この研究は、制御された都市画像生成のためのベンチマークを確立し、計画ワークフローとパブリックエンゲージメントを強化するツールとしての生成AIの可能性を強調している。
関連論文リスト
- Unsupervised Urban Land Use Mapping with Street View Contrastive Clustering and a Geographical Prior [16.334202302817783]
本研究は、地理的事前に組み込まれたストリートビュー画像に対する教師なしコントラストクラスタリングモデルを提案する。
本研究では,2つの都市の地理タグ付きストリートビュー画像データセットから土地利用地図を作成できることを実験的に示す。
論文 参考訳(メタデータ) (2025-04-24T13:41:27Z) - AerialGo: Walking-through City View Generation from Aerial Perspectives [48.53976414257845]
AerialGoは、空中画像からリアルな街並みを生成するフレームワークである。
AerialGoは、アクセス可能な航空データに地上視合成を条件付けすることで、地上レベルの画像に固有のプライバシーリスクを回避できる。
実験により、AerialGoは地上レベルのリアリズムと構造的コヒーレンスを著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-11-29T08:14:07Z) - Urban Scene Diffusion through Semantic Occupancy Map [49.20779809250597]
UrbanDiffusionは、Bird's-Eye View (BEV)マップに条件付き3次元拡散モデルである。
我々のモデルは,潜在空間内のシーンレベルの構造の分布を学習する。
実世界の運転データセットをトレーニングした後、我々のモデルは多様な都市シーンを生成することができる。
論文 参考訳(メタデータ) (2024-03-18T11:54:35Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Generative methods for Urban design and rapid solution space exploration [13.222198221605701]
本研究では,テンソル場に基づく都市モデルツールキットの実装について紹介する。
提案手法は,ウォーターフロントエッジ,地形,ビュー軸,既存道路,ランドマーク,非幾何学的設計入力などのコンテキスト制約を符号化する。
これによりユーザーは、モデル入力がほとんどない現実世界の都市に似た、多様な都市ファブリック構成を作成できる。
論文 参考訳(メタデータ) (2022-12-13T17:58:02Z) - Deep Human-guided Conditional Variational Generative Modeling for
Automated Urban Planning [30.614010268762115]
都市計画は土地利用形態を設計し、居住可能で持続可能で安全なコミュニティの構築に役立てることができる。
画像生成にインスパイアされた深層都市計画は、深層学習を活用して土地利用構成を生成することを目的としている。
本稿では, 上記の課題を共同で解決するための, 深層都市計画手法について検討する。
論文 参考訳(メタデータ) (2021-10-12T15:45:38Z) - Methodological Foundation of a Numerical Taxonomy of Urban Form [62.997667081978825]
本稿では, 生物系統学から得られた都市形態の数値分類法を提案する。
我々は同質の都市組織タイプを導出し、それら間の全体形態的類似性を決定することにより、都市形態の階層的分類を生成する。
フレーミングとプレゼンを行った後、プラハとアムステルダムの2都市でテストを行った。
論文 参考訳(メタデータ) (2021-04-30T12:47:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。