論文の概要: OSMGen: Highly Controllable Satellite Image Synthesis using OpenStreetMap Data
- arxiv url: http://arxiv.org/abs/2511.00345v1
- Date: Sat, 01 Nov 2025 01:05:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.731634
- Title: OSMGen: Highly Controllable Satellite Image Synthesis using OpenStreetMap Data
- Title(参考訳): OSMGen:OpenStreetMapデータを用いた高可制御衛星画像合成
- Authors: Amir Ziashahabi, Narges Ghasemi, Sajjad Shahabi, John Krumm, Salman Avestimehr, Cyrus Shahabi,
- Abstract要約: 我々は,生のOpenStreetMapデータから直接,リアルな衛星画像を生成する生成フレームワークであるOSMGenを紹介する。
フレームワークの中心的な特徴は、一貫した事前イメージペアを生成する能力である。
これにより、不足とクラス不均衡に対処するトレーニングデータを生成することができる。
- 参考スコア(独自算出の注目度): 21.489654938207096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate and up-to-date geospatial data are essential for urban planning, infrastructure monitoring, and environmental management. Yet, automating urban monitoring remains difficult because curated datasets of specific urban features and their changes are scarce. We introduce OSMGen, a generative framework that creates realistic satellite imagery directly from raw OpenStreetMap (OSM) data. Unlike prior work that relies on raster tiles, OSMGen uses the full richness of OSM JSON, including vector geometries, semantic tags, location, and time, giving fine-grained control over how scenes are generated. A central feature of the framework is the ability to produce consistent before-after image pairs: user edits to OSM inputs translate into targeted visual changes, while the rest of the scene is preserved. This makes it possible to generate training data that addresses scarcity and class imbalance, and to give planners a simple way to preview proposed interventions by editing map data. More broadly, OSMGen produces paired (JSON, image) data for both static and changed states, paving the way toward a closed-loop system where satellite imagery can automatically drive structured OSM updates. Source code is available at https://github.com/amir-zsh/OSMGen.
- Abstract(参考訳): 正確な、最新の地理空間データは、都市計画、インフラ監視、環境管理に不可欠である。
しかし、特定の都市の特徴と変化の収集されたデータセットが不足しているため、都市モニタリングの自動化は依然として困難である。
我々は,生のOpenStreetMap(OSM)データから直接,リアルな衛星画像を生成する生成フレームワークであるOSMGenを紹介する。
ラスタタイルに依存した以前の作業とは異なり、OSMGenはベクトルジオメトリ、セマンティックタグ、場所、時間を含むOSM JSONの完全なリッチさを使用しており、シーンの生成方法に関するきめ細かいコントロールを提供する。
OSMインプットへの編集はターゲットの視覚的変化に変換され、残りのシーンは保存される。
これにより、不足とクラス不均衡に対処するトレーニングデータを生成し、マップデータを編集して提案された介入をプレビューする簡単な方法を提供する。
より広い範囲で、OSMGenは静的状態と変化した状態の両方に対してペア(JSON、画像)のデータを生成し、衛星画像が自動的に構造化されたOSM更新を駆動するクローズドループシステムに向かっている。
ソースコードはhttps://github.com/amir-zsh/OSMGen.comで入手できる。
関連論文リスト
- DragOSM: Extract Building Roofs and Footprints from Aerial Images by Aligning Historical Labels [48.74862499599635]
Drag OpenStreetMap Labels (DragOSM) を提案する。
DragOSMはラベルアライメントを対話的な復調プロセスとして定式化し、位置差をガウス分布としてモデル化する。
我々は,OpenStreetMapを併用した179,265の建物と,41都市5,473枚のアノテーションを手作業で修正した,OSM (ReBO) の修復建物に関する新しいデータセットを提案する。
論文 参考訳(メタデータ) (2025-09-22T16:10:13Z) - OSMLoc: Single Image-Based Visual Localization in OpenStreetMap with Fused Geometric and Semantic Guidance [20.043977909592115]
OSMLocは、OpenStreetMapマップに対するファーストパーソナライズされたイメージに基づく、脳にインスパイアされた視覚的ローカライゼーションアプローチである。
意味的および幾何学的ガイダンスを統合し、精度、堅牢性、一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-11-13T14:59:00Z) - GaussNav: Gaussian Splatting for Visual Navigation [92.13664084464514]
インスタンスイメージゴールナビゲーション(IIN)では、エージェントが探索されていない環境で、目標画像に描かれた特定のオブジェクトを見つける必要がある。
視覚ナビゲーションのためのガウススティング(GaussNav)であるIINの新しいフレームワークを提案し、3次元ガウススティング(DGS)に基づく新しい地図表現を構築した。
当社のGaussNavフレームワークは,Habitat-Matterport 3D(HM3D)データセットにおいて,SPL(Path Length)によるSuccessの重み付けを0.347から0.578に増加させ,大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-03-18T09:56:48Z) - Diffusion-Based Scene Graph to Image Generation with Masked Contrastive
Pre-Training [112.94542676251133]
画像とのアライメントを直接最適化することで,シーングラフの埋め込みを学習する。
具体的には,シーングラフからグローバル情報とローカル情報の両方を抽出するエンコーダを事前訓練する。
SGDiffと呼ばれる結果の方法は、シーングラフノードと接続を変更することによって生成された画像のセマンティックな操作を可能にする。
論文 参考訳(メタデータ) (2022-11-21T01:11:19Z) - MotionSC: Data Set and Network for Real-Time Semantic Mapping in Dynamic
Environments [1.7615233156139762]
この研究は、正確で完全な動的シーンを持つ新しい屋外データセットを作成することで、意味シーン補完(SSC)データのギャップに対処する。
我々は、最先端のオープンソースネットワークからSSCベースラインを作成し、リアルタイムな局所的セマンティックマッピングアルゴリズムであるMotionSCをベンチマークで構築する。
我々のネットワークは,提案したデータセットが動的オブジェクトの存在下での正確なシーン完了を定量化し,監視できることを示唆している。
論文 参考訳(メタデータ) (2022-03-14T13:00:33Z) - HDMapGen: A Hierarchical Graph Generative Model of High Definition Maps [81.86923212296863]
HDマップは道路路面の正確な定義と交通ルールの豊富な意味を持つ地図である。
実際の道路トポロジやジオメトリはごくわずかで、自動運転スタックをテストする能力は著しく制限されています。
高品質で多様なHDマップを生成可能な階層グラフ生成モデルであるHDMapGenを提案する。
論文 参考訳(メタデータ) (2021-06-28T17:59:30Z) - OpenREALM: Real-time Mapping for Unmanned Aerial Vehicles [62.997667081978825]
OpenREALMは無人航空機(UAV)のリアルタイムマッピングフレームワークである
異なる操作モードにより、OpenREALMは近似平面場を仮定して単純な縫合を行うことができる。
すべてのモードにおいて、結果のマップの漸進的な進捗は、地上のオペレータによってライブで見ることができる。
論文 参考訳(メタデータ) (2020-09-22T12:28:14Z) - OpenStreetMap: Challenges and Opportunities in Machine Learning and
Remote Sensing [66.23463054467653]
本稿では,OpenStreetMapデータの改良と利用のための機械学習に基づく最近の手法について述べる。
私たちは、OSMがリモートセンシングデータの解釈方法を変え、機械学習とのシナジーが参加型マップ作成をスケールできると考えている。
論文 参考訳(メタデータ) (2020-07-13T09:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。