論文の概要: Geospatial Data Fusion: Combining Lidar, SAR, and Optical Imagery with AI for Enhanced Urban Mapping
- arxiv url: http://arxiv.org/abs/2412.18994v1
- Date: Wed, 25 Dec 2024 22:17:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:27:40.319851
- Title: Geospatial Data Fusion: Combining Lidar, SAR, and Optical Imagery with AI for Enhanced Urban Mapping
- Title(参考訳): 地理空間データフュージョン:Lidar, SAR, 光画像とAIを組み合わせた都市マッピング
- Authors: Sajjad Afroosheh, Mohammadreza Askari,
- Abstract要約: 本研究では,高度都市マッピングのための高度な人工知能技術によるライダー,合成開口レーダ(SAR),光学画像の統合について検討する。
この研究は、都市の特徴抽出のための主要なディープラーニングモデルとして、FCN(Fully Convolutional Networks)を採用している。
主な発見は、FCN-PSOモデルが92.3%の画素精度、IoUの平均インターセクションは87.6%で、従来の単一センサーのアプローチを上回ったことを示している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study explores the integration of Lidar, Synthetic Aperture Radar (SAR), and optical imagery through advanced artificial intelligence techniques for enhanced urban mapping. By fusing these diverse geospatial datasets, we aim to overcome the limitations associated with single-sensor data, achieving a more comprehensive representation of urban environments. The research employs Fully Convolutional Networks (FCNs) as the primary deep learning model for urban feature extraction, enabling precise pixel-wise classification of essential urban elements, including buildings, roads, and vegetation. To optimize the performance of the FCN model, we utilize Particle Swarm Optimization (PSO) for hyperparameter tuning, significantly enhancing model accuracy. Key findings indicate that the FCN-PSO model achieved a pixel accuracy of 92.3% and a mean Intersection over Union (IoU) of 87.6%, surpassing traditional single-sensor approaches. These results underscore the potential of fused geospatial data and AI-driven methodologies in urban mapping, providing valuable insights for urban planning and management. The implications of this research pave the way for future developments in real-time mapping and adaptive urban infrastructure planning.
- Abstract(参考訳): 本研究では,高度都市マッピングのための高度な人工知能技術によるライダー,合成開口レーダ(SAR),光学画像の統合について検討する。
これらの多様な地理空間データセットを融合させることで、単一センサデータに関連する制約を克服し、より包括的な都市環境表現の実現を目指している。
この研究は、都市の特徴抽出のための主要なディープラーニングモデルとしてFCN(Fully Convolutional Networks)を採用し、建物、道路、植生を含む重要な都市要素を正確に分類することを可能にする。
FCNモデルの性能を最適化するために、超パラメータチューニングにParticle Swarm Optimization (PSO) を用い、モデルの精度を大幅に向上する。
主な発見は、FCN-PSOモデルが92.3%の画素精度、IoUの平均インターセクションは87.6%で、従来の単一センサーのアプローチを上回ったことを示している。
これらの結果は、都市地図における融合地理空間データとAI駆動手法の可能性を強調し、都市計画と管理に貴重な洞察を与える。
本研究の意義は、リアルタイムマッピングと適応型都市インフラ計画における今後の発展の道を開くことである。
関連論文リスト
- Collaborative Imputation of Urban Time Series through Cross-city Meta-learning [54.438991949772145]
メタ学習型暗黙的ニューラル表現(INR)を利用した新しい協調的計算パラダイムを提案する。
次に,モデルに依存しないメタ学習による都市間協調学習手法を提案する。
20のグローバル都市から得られた多様な都市データセットの実験は、我々のモデルの優れた計算性能と一般化可能性を示している。
論文 参考訳(メタデータ) (2025-01-20T07:12:40Z) - Predicting Air Temperature from Volumetric Urban Morphology with Machine Learning [0.0]
本稿では,都市などの大規模データセットに対して,効率的にかつ高速に動作するVoxelにCityGMLデータを変換する手法を提案する。
複数の都市の3D都市データとそれに対応する気温データを用いて、機械学習モデルを開発する。
論文 参考訳(メタデータ) (2025-01-16T11:10:38Z) - Fusion of Deep Learning and GIS for Advanced Remote Sensing Image Analysis [0.0]
本稿では地理情報システム(GIS)を用いた深層学習技術を用いたリモートセンシング画像解析のための革新的なフレームワークを提案する。
主な目的は、高次元、複雑なパターン、時間的データ処理に関わる課題を克服することで、空間データ解析の精度と効率を高めることである。
その結果,分類精度は78%から92%に,予測誤差は12%から6%に低下した。
論文 参考訳(メタデータ) (2024-12-25T22:10:35Z) - ControlCity: A Multimodal Diffusion Model Based Approach for Accurate Geospatial Data Generation and Urban Morphology Analysis [6.600555803960957]
本稿では,アクセス可能なVGIデータと完全なVGIデータを利用して,都市建物のフットプリントデータの生成を支援するマルチソース地理データ変換ソリューションを提案する。
次に,多モード拡散モデルに基づく地理データ変換手法であるControlCityを提案する。
世界の22都市での実験では、ControlCityが実際の都市建築パターンをシミュレートすることに成功している。
論文 参考訳(メタデータ) (2024-09-25T16:03:33Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Learning from Synthetic Data for Visual Grounding [55.21937116752679]
そこで本研究では,SynGroundが市販のビジョン・アンド・ランゲージモデルのローカライズ能力を向上できることを示す。
SynGroundで生成されたデータは、事前訓練されたALBEFモデルとBLIPモデルのポインティングゲーム精度をそれぞれ4.81%、絶対パーセンテージポイント17.11%向上させる。
論文 参考訳(メタデータ) (2024-03-20T17:59:43Z) - Multi-task deep learning for large-scale building detail extraction from
high-resolution satellite imagery [13.544826927121992]
MT-BR(Multi-task Building Refiner)は、衛星画像から構築の詳細を同時抽出するための適応型ニューラルネットワークである。
大規模アプリケーションでは,限定的だが代表的画像サンプルを戦略的に選択する新しい空間サンプリング方式を考案する。
MT-BRは、様々なメトリクスをまたいだ詳細の構築において、他の最先端の手法よりも一貫して優れている。
論文 参考訳(メタデータ) (2023-10-29T04:43:30Z) - Cross-City Matters: A Multimodal Remote Sensing Benchmark Dataset for
Cross-City Semantic Segmentation using High-Resolution Domain Adaptation
Networks [82.82866901799565]
我々は,都市間セマンティックセマンティックセグメンテーションタスクの研究を目的とした,新しいマルチモーダルリモートセンシングベンチマークデータセット(ハイパースペクトル,マルチスペクトル,SARを含む)を構築した。
単一都市に留まらず,多都市環境からAIモデルの一般化能力を促進するため,高解像度なドメイン適応ネットワークであるHighDANを提案する。
高DANは, 並列高分解能融合方式で, 都市景観の空間的トポロジカルな構造を良好に維持することができる。
論文 参考訳(メタデータ) (2023-09-26T23:55:39Z) - Assessment of a new GeoAI foundation model for flood inundation mapping [4.312965283062856]
そこで本稿は,IBM-NASAのPrithviによる地空間基盤モデルの性能評価を行い,地空間解析の重要課題である洪水浸水マッピングを支援する。
実験では、ベンチマークデータセットであるSen1Floods11を使用し、モデルの予測可能性、一般化可能性、転送可能性を評価する。
以上の結果から, 未確認領域におけるセグメンテーションにおけるPrithviモデルの性能上の優位性が示された。
論文 参考訳(メタデータ) (2023-09-25T19:50:47Z) - Spatio-Temporal Graph Few-Shot Learning with Cross-City Knowledge
Transfer [58.6106391721944]
クロスシティの知識は、データ不足の都市から学んだモデルを活用して、データ不足の都市の学習プロセスに役立てるという、その将来性を示している。
本稿では,ST-GFSLと呼ばれるS時間グラフのためのモデルに依存しない数ショット学習フレームワークを提案する。
本研究では,4つの交通速度予測ベンチマークの総合的な実験を行い,ST-GFSLの有効性を最先端手法と比較した。
論文 参考訳(メタデータ) (2022-05-27T12:46:52Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。