論文の概要: Radiometric fingerprinting of object surfaces using mobile laser scanning and semantic 3D road space models
- arxiv url: http://arxiv.org/abs/2603.11252v1
- Date: Wed, 11 Mar 2026 19:22:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.610775
- Title: Radiometric fingerprinting of object surfaces using mobile laser scanning and semantic 3D road space models
- Title(参考訳): 移動レーザースキャンとセマンティック3次元道路空間モデルを用いた物体表面のX線指紋認証
- Authors: Benedikt Schwab, Thomas H. Kolbe,
- Abstract要約: 異なる距離, 入射角, 環境条件, センサ, 走査運動において, 同一の意味対象から反射されるLiDAR観測をグループ化して, 物体表面の放射能指紋を提案する。
本研究は、4つのキャンペーンで獲得した312.4万個のビームが、セマンティック3次元都市モデルの6368個の個々のオブジェクトに自動的に関連付けることができることを示す。
抽出した被写体表面の放射能指紋から, クラス優占物質を示すクラス内パターンが繰り返し現れる。
- 参考スコア(独自算出の注目度): 1.272966626282819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although semantic 3D city models are internationally available and becoming increasingly detailed, the incorporation of material information remains largely untapped. However, a structured representation of materials and their physical properties could substantially broaden the application spectrum and analytical capabilities for urban digital twins. At the same time, the growing number of repeated mobile laser scans of cities and their street spaces yields a wealth of observations influenced by the material characteristics of the corresponding surfaces. To leverage this information, we propose radiometric fingerprints of object surfaces by grouping LiDAR observations reflected from the same semantic object under varying distances, incident angles, environmental conditions, sensors, and scanning campaigns. Our study demonstrates how 312.4 million individual beams acquired across four campaigns using five LiDAR sensors on the Audi Autonomous Driving Dataset (A2D2) vehicle can be automatically associated with 6368 individual objects of the semantic 3D city model. The model comprises a comprehensive and semantic representation of four inner-city streets at Level of Detail (LOD) 3 with centimeter-level accuracy. It is based on the CityGML 3.0 standard and enables fine-grained sub-differentiation of objects. The extracted radiometric fingerprints for object surfaces reveal recurring intra-class patterns that indicate class-dominant materials. The semantic model, the method implementations, and the developed geodatabase solution 3DSensorDB are released under: https://github.com/tum-gis/sensordb
- Abstract(参考訳): セマンティック3D都市モデルは国際的に利用可能であり、さらに詳細化が進んでいるが、材料情報の組み入れは未解決のままである。
しかし、物質の構造的表現とその物理的性質は、都市デジタル双生児の応用スペクトルと分析能力を大幅に広げる可能性がある。
同時に、都市とその街路空間の繰り返し移動型レーザースキャンが増加し、対応する表面の材料特性の影響を受け、多くの観測結果が得られる。
この情報を活用するために,同じ意味対象から反射されるLiDAR観測を,異なる距離,入射角,環境条件,センサ,走査キャンペーンでグループ化し,対象表面の放射能指紋を提案する。
本研究は,Audi Autonomous Driving Dataset (A2D2) の5つのLiDARセンサを用いて,4つのキャンペーンで312.4万個の個人ビームが,意味3D都市モデルの6368個の個人オブジェクトに自動的に関連付けられていることを示す。
このモデルは、レベル・オブ・ディーテール(LOD)3の4つの街路を、センチメートルレベルの精度で包括的かつ意味的に表現する。
CityGML 3.0標準に基づいており、オブジェクトの微細な部分微分を可能にする。
抽出した被写体表面の放射能指紋から, クラス優占物質を示すクラス内パターンが繰り返し現れる。
セマンティックモデル、メソッドの実装、開発済みのジオデータベースソリューションである3DSensorDBは、https://github.com/tum-gis/sensordb.comでリリースされます。
関連論文リスト
- Towards Scalable Spatial Intelligence via 2D-to-3D Data Lifting [64.64738535860351]
単一ビュー画像を包括的・スケール的・外観リアルな3D表現に変換するスケーラブルなパイプラインを提案する。
本手法は,画像の膨大な保存と空間的シーン理解への需要の増大とのギャップを埋めるものである。
画像から精度の高い3Dデータを自動的に生成することにより,データ収集コストを大幅に削減し,空間知性を向上するための新たな道を開く。
論文 参考訳(メタデータ) (2025-07-24T14:53:26Z) - The Oxford Spires Dataset: Benchmarking Large-Scale LiDAR-Visual Localisation, Reconstruction and Radiance Field Methods [11.967894642130206]
本稿では,オックスフォードの有名なランドマーク周辺で収集された大規模マルチモーダルデータセットを紹介する。
また、ローカライゼーション、再構築、新規ビュー合成を含むタスクのベンチマークも作成する。
我々のデータセットとベンチマークは、放射場法とSLAMシステムのより良い統合を容易にすることを意図している。
論文 参考訳(メタデータ) (2024-11-15T19:43:24Z) - MMScan: A Multi-Modal 3D Scene Dataset with Hierarchical Grounded Language Annotations [55.022519020409405]
本稿では,マルチモーダルな3Dシーンデータセットと階層型言語アノテーションを用いたベンチマーク,MMScanを構築した。
結果として得られたマルチモーダルな3Dデータセットは、109kオブジェクトと7.7kリージョン上の1.4Mメタアノテーション付きキャプションと、3Dビジュアルグラウンドと質問応答ベンチマークのための3.04M以上の多様なサンプルを含んでいる。
論文 参考訳(メタデータ) (2024-06-13T17:59:30Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Object-level 3D Semantic Mapping using a Network of Smart Edge Sensors [25.393382192511716]
我々は,分散エッジセンサのネットワークとオブジェクトレベルの情報からなる多視点3次元意味マッピングシステムを拡張した。
提案手法は,数cm以内でのポーズ推定と,実験室環境におけるセンサネットワークを用いた実環境実験により,Behaveデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-11-21T11:13:08Z) - Normal Transformer: Extracting Surface Geometry from LiDAR Points Enhanced by Visual Semantics [7.507853813361308]
本稿では,LiDARとカメラセンサから得られた3次元点雲と2次元カラー画像を利用して表面正規化を行うマルチモーダル手法を提案する。
本稿では,視覚的意味論と3次元幾何学的情報を巧みに融合した,トランスフォーマーに基づくニューラルネットワークアーキテクチャを提案する。
交通シーンを模倣したシミュレーション3D環境から,提案モデルが学習可能であることが確認された。
論文 参考訳(メタデータ) (2022-11-19T03:55:09Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。