論文の概要: SIM: A mapping framework for built environment auditing based on street view imagery
- arxiv url: http://arxiv.org/abs/2505.24076v1
- Date: Thu, 29 May 2025 23:43:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.70478
- Title: SIM: A mapping framework for built environment auditing based on street view imagery
- Title(参考訳): SIM:ストリートビュー画像に基づく構築環境監査のためのマッピングフレームワーク
- Authors: Huan Ning, Zhenlong Li, Manzhu Yu, Wenpeng Yin,
- Abstract要約: 構築された環境監査は、都市部と農村部の物理的、社会的、および環境特性の体系的な文書化と評価を指す。
Googleストリートビューは、リモートで構築された環境監査を行うために広く利用されているデータソースになっている。
ディープラーニングとコンピュータビジョン技術は、ストリートイメージからオブジェクトを抽出し、分類し、監査の生産性を高める。
- 参考スコア(独自算出の注目度): 6.2235195317692975
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Built environment auditing refers to the systematic documentation and assessment of urban and rural spaces' physical, social, and environmental characteristics, such as walkability, road conditions, and traffic lights. It is used to collect data for the evaluation of how built environments impact human behavior, health, mobility, and overall urban functionality. Traditionally, built environment audits were conducted using field surveys and manual observations, which were time-consuming and costly. The emerging street view imagery, e.g., Google Street View, has become a widely used data source for conducting built environment audits remotely. Deep learning and computer vision techniques can extract and classify objects from street images to enhance auditing productivity. Before meaningful analysis, the detected objects need to be geospatially mapped for accurate documentation. However, the mapping methods and tools based on street images are underexplored, and there are no universal frameworks or solutions yet, imposing difficulties in auditing the street objects. In this study, we introduced an open source street view mapping framework, providing three pipelines to map and measure: 1) width measurement for ground objects, such as roads; 2) 3D localization for objects with a known dimension (e.g., doors and stop signs); and 3) diameter measurements (e.g., street trees). These pipelines can help researchers, urban planners, and other professionals automatically measure and map target objects, promoting built environment auditing productivity and accuracy. Three case studies, including road width measurement, stop sign localization, and street tree diameter measurement, are provided in this paper to showcase pipeline usage.
- Abstract(参考訳): 構築された環境監査は、歩行性、道路条件、交通信号など、都市部と農村部の物理的、社会的、および環境特性の体系的な文書化と評価を指す。
構築された環境が人間の行動、健康、移動、都市全体の機能にどのように影響するかを評価するためのデータ収集に使用される。
伝統的に構築された環境監査は、フィールドサーベイと手作業による観察によって実施され、時間と費用がかかる。
新たなストリートビューイメージ、例えばGoogleストリートビューは、リモートで構築された環境監査を行うために広く利用されているデータソースになっている。
ディープラーニングとコンピュータビジョン技術は、ストリートイメージからオブジェクトを抽出し、分類し、監査の生産性を高める。
意味のある分析の前には、検出されたオブジェクトは正確なドキュメントのために地理的にマッピングされる必要がある。
しかし,街路画像に基づくマッピング手法やツールの探索は過小評価されており,路面オブジェクトの監査の難しさを示唆する普遍的なフレームワークやソリューションはいまだに存在しない。
本研究では,オープンソースのストリートビューマッピングフレームワークを導入し,マップと測定のためのパイプラインを3つ提供した。
1) 道路等地盤の幅測定
2 既知の寸法(例えば、ドア及び停止標識)の3次元位置決め及び
3) 直径測定(例, 街路樹)。
これらのパイプラインは、研究者、都市プランナー、その他の専門家がターゲットオブジェクトを自動的に測定し、マッピングし、構築された環境監査の生産性と正確性を促進するのに役立つ。
本論文では,道路幅測定,ストップサイン位置測定,ストリートツリー径測定の3つのケーススタディについて,パイプラインの利用例を紹介する。
関連論文リスト
- Streetscape Analysis with Generative AI (SAGAI): Vision-Language Assessment and Mapping of Urban Scenes [0.9208007322096533]
本稿では,SAGAI:Streetscape Analysis with Generative Artificial Intelligenceを紹介する。
これは、オープンアクセスデータと視覚言語モデルを使用して、街路レベルの都市シーンを評価するためのモジュラーワークフローである。
タスク固有のトレーニングやプロプライエタリなソフトウェア依存関係なしで動作します。
論文 参考訳(メタデータ) (2025-04-23T09:08:06Z) - FindAnything: Open-Vocabulary and Object-Centric Mapping for Robot Exploration in Any Environment [16.987872206495897]
FindAnythingは、視覚言語情報を高密度のボリュームサブマップに組み込むオープンワールドマッピングフレームワークである。
当社のシステムは,MAVなどのリソース制約されたデバイスにデプロイされる最初のシステムである。
論文 参考訳(メタデータ) (2025-04-11T15:12:05Z) - TopView: Vectorising road users in a bird's eye view from uncalibrated street-level imagery with deep learning [2.7195102129095003]
本研究では、カメラの内在的・外在的パラメータを事前に把握せずに、画像から鳥の視線を推定するための簡単なアプローチを提案する。
このフレームワークは、カメラフィードからライブマップを生成し、都市規模での社会的距離違反を分析するために、いくつかのアプリケーションに適用されている。
論文 参考訳(メタデータ) (2024-12-18T21:55:58Z) - Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - BuildingView: Constructing Urban Building Exteriors Databases with Street View Imagery and Multimodal Large Language Mode [1.0937094979510213]
ストリートビュー・イメージリーの進歩と、都市研究との統合によって、都市分析において、外部建設はますます重要になっている。
我々は,Googleストリートビューの高解像度視覚データをOpenStreetMapの空間情報とOverpass APIを介して統合する新しいアプローチであるBuildingViewを提案する。
本研究は,都市の建築外装データの精度を向上し,キーサステナビリティと設計指標を特定し,その抽出と分類のための枠組みを開発する。
論文 参考訳(メタデータ) (2024-09-29T03:00:16Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Weakly-Supervised Multi-Granularity Map Learning for Vision-and-Language
Navigation [87.52136927091712]
我々は,ロボットエージェントが言語指導によって記述された経路をたどって,環境の中をナビゲートするよう訓練する,現実的かつ困難な問題に対処する。
高精度かつ効率的なナビゲーションを実現するためには,環境オブジェクトの空間的位置と意味情報の両方を正確に表現した地図を構築することが重要である。
より包括的にオブジェクトを表現するために,オブジェクトの細粒度(色,テクスチャなど)とセマンティッククラスの両方を含む多粒度マップを提案する。
論文 参考訳(メタデータ) (2022-10-14T04:23:27Z) - Urban Sensing based on Mobile Phone Data: Approaches, Applications and
Challenges [67.71975391801257]
モバイルデータ分析における多くの関心は、人間とその行動に関連している。
本研究の目的は,携帯電話データから知識を発見するために実装された手法や手法をレビューすることである。
論文 参考訳(メタデータ) (2020-08-29T15:14:03Z) - An Exploration of Embodied Visual Exploration [97.21890864063872]
身体的コンピュータビジョンは、新しい非構造環境におけるロボットに対する知覚を考慮に入れている。
既存の視覚探索アルゴリズムの分類を提示し、それらをベンチマークするための標準フレームワークを作成する。
次に,提案フレームワークを用いた4つの最先端パラダイムの徹底的な実証的研究を行った。
論文 参考訳(メタデータ) (2020-01-07T17:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。