論文の概要: MapAnything: Mapping Urban Assets using Single Street-View Images
- arxiv url: http://arxiv.org/abs/2509.14839v1
- Date: Thu, 18 Sep 2025 11:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.176063
- Title: MapAnything: Mapping Urban Assets using Single Street-View Images
- Title(参考訳): MapAnything: 単一ストリートビュー画像を用いた都市アセットのマッピング
- Authors: Miriam Louise Carnot, Jonas Kunze, Erik Fastermann, Eric Peukert, André Ludwig, Bogdan Franczyk,
- Abstract要約: 本稿では,個々の画像を用いてオブジェクトのジオコーディネートを自動的に決定するモジュールであるMapAnythingを紹介する。
都市オブジェクトの自動化やインシデントマッピングの推奨事項として,モジュールの詳細と検証を行う。
都市環境におけるLiDAR点雲に対する推定距離の精度を測定した。
- 参考スコア(独自算出の注目度): 0.985181251286035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To maintain an overview of urban conditions, city administrations manage databases of objects like traffic signs and trees, complete with their geocoordinates. Incidents such as graffiti or road damage are also relevant. As digitization increases, so does the need for more data and up-to-date databases, requiring significant manual effort. This paper introduces MapAnything, a module that automatically determines the geocoordinates of objects using individual images. Utilizing advanced Metric Depth Estimation models, MapAnything calculates geocoordinates based on the object's distance from the camera, geometric principles, and camera specifications. We detail and validate the module, providing recommendations for automating urban object and incident mapping. Our evaluation measures the accuracy of estimated distances against LiDAR point clouds in urban environments, analyzing performance across distance intervals and semantic areas like roads and vegetation. The module's effectiveness is demonstrated through practical use cases involving traffic signs and road damage.
- Abstract(参考訳): 都市環境の概観を維持するため、市当局は交通標識や木などのオブジェクトのデータベースを管理し、ジオコーディネートを完備している。
落書きや道路被害などの事件も関係している。
デジタル化が進むにつれて、より多くのデータと最新のデータベースが必要になり、かなりの手作業が必要になる。
本稿では,個々の画像を用いてオブジェクトのジオコーディネートを自動的に決定するモジュールであるMapAnythingを紹介する。
高度な距離推定モデルを用いて、MapAnythingは、カメラからの距離、幾何学的原理、およびカメラ仕様に基づいて、ジオコーディネートを計算する。
都市オブジェクトの自動化やインシデントマッピングの推奨事項として,モジュールの詳細と検証を行う。
都市環境におけるLiDAR点雲に対する推定距離の精度を測定し,距離間隔や道路や植生などの意味領域における性能を分析した。
このモジュールの有効性は,交通標識や道路損傷などの実用事例を通じて実証される。
関連論文リスト
- SIM: A mapping framework for built environment auditing based on street view imagery [6.2235195317692975]
構築された環境監査は、都市部と農村部の物理的、社会的、および環境特性の体系的な文書化と評価を指す。
Googleストリートビューは、リモートで構築された環境監査を行うために広く利用されているデータソースになっている。
ディープラーニングとコンピュータビジョン技術は、ストリートイメージからオブジェクトを抽出し、分類し、監査の生産性を高める。
論文 参考訳(メタデータ) (2025-05-29T23:43:03Z) - TopView: Vectorising road users in a bird's eye view from uncalibrated street-level imagery with deep learning [2.7195102129095003]
本研究では、カメラの内在的・外在的パラメータを事前に把握せずに、画像から鳥の視線を推定するための簡単なアプローチを提案する。
このフレームワークは、カメラフィードからライブマップを生成し、都市規模での社会的距離違反を分析するために、いくつかのアプリケーションに適用されている。
論文 参考訳(メタデータ) (2024-12-18T21:55:58Z) - Maps from Motion (MfM): Generating 2D Semantic Maps from Sparse Multi-view Images [17.992488467380923]
OpenStreetMapは、1100万人の登録ユーザーが手動でGPSの位置情報に157億以上のエントリをアノテートした結果である。
同時に、手動のアノテーションにはエラーが含まれ、更新が遅く、マップの精度が制限される。
動きからのマップ (MfM) は、非校正された多視点画像のコレクションから直接意味オブジェクトの2Dマップを計算することにより、そのような時間を要する地図作成手順を自動化するためのステップである。
論文 参考訳(メタデータ) (2024-11-19T16:27:31Z) - Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Weakly-Supervised Multi-Granularity Map Learning for Vision-and-Language
Navigation [87.52136927091712]
我々は,ロボットエージェントが言語指導によって記述された経路をたどって,環境の中をナビゲートするよう訓練する,現実的かつ困難な問題に対処する。
高精度かつ効率的なナビゲーションを実現するためには,環境オブジェクトの空間的位置と意味情報の両方を正確に表現した地図を構築することが重要である。
より包括的にオブジェクトを表現するために,オブジェクトの細粒度(色,テクスチャなど)とセマンティッククラスの両方を含む多粒度マップを提案する。
論文 参考訳(メタデータ) (2022-10-14T04:23:27Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - What is the Best Grid-Map for Self-Driving Cars Localization? An
Evaluation under Diverse Types of Illumination, Traffic, and Environment [10.64191129882262]
自動運転車のローカライゼーションは、地図の更新、オブジェクトの追跡、計画など、いくつかのタスクに必要である。
複数のマップの維持・使用は計算コストがかかるため、各アプリケーションにどのマップが適切かを分析することが重要である。
本研究では, 占有率, 反射率, 色, セマンティックグリッドマップを用いて, 粒子フィルタの局所化の精度を比較することによって, その解析のためのデータを提供する。
論文 参考訳(メタデータ) (2020-09-19T22:02:44Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。