論文の概要: PolyU-BPCoMa: A Dataset and Benchmark Towards Mobile Colorized Mapping
Using a Backpack Multisensorial System
- arxiv url: http://arxiv.org/abs/2206.07468v1
- Date: Wed, 15 Jun 2022 12:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 14:12:33.847905
- Title: PolyU-BPCoMa: A Dataset and Benchmark Towards Mobile Colorized Mapping
Using a Backpack Multisensorial System
- Title(参考訳): PolyU-BPCoMa: Backpack Multisensorial System を用いたモバイルカラーマッピングのためのデータセットとベンチマーク
- Authors: Wenzhong Shi, Pengxin Chen, Muyang Wang, Sheng Bao, Haodong Xiang, Yue
Yu, Daping Yang
- Abstract要約: 本稿では,PolyU-BPCoMAという多感覚データセットについて述べる。
このデータセットには、バックパックプラットフォーム上の3D LiDAR、球面イメージング、IMUのリソースが含まれている。
我々は,移動型マルチセンサーシステムにおいて,マッピングとカラー化の精度を同時にベンチマークする機会を提供する。
- 参考スコア(独自算出の注目度): 5.871107834305154
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Constructing colorized point clouds from mobile laser scanning and images is
a fundamental work in surveying and mapping. It is also an essential
prerequisite for building digital twins for smart cities. However, existing
public datasets are either in relatively small scales or lack accurate
geometrical and color ground truth. This paper documents a multisensorial
dataset named PolyU-BPCoMA which is distinctively positioned towards mobile
colorized mapping. The dataset incorporates resources of 3D LiDAR, spherical
imaging, GNSS and IMU on a backpack platform. Color checker boards are pasted
in each surveyed area as targets and ground truth data are collected by an
advanced terrestrial laser scanner (TLS). 3D geometrical and color information
can be recovered in the colorized point clouds produced by the backpack system
and the TLS, respectively. Accordingly, we provide an opportunity to benchmark
the mapping and colorization accuracy simultaneously for a mobile
multisensorial system. The dataset is approximately 800 GB in size covering
both indoor and outdoor environments. The dataset and development kits are
available at https://github.com/chenpengxin/PolyU-BPCoMa.git.
- Abstract(参考訳): 移動レーザスキャンと画像からのカラー化点雲の構築は、測量とマッピングの基本的な研究である。
また、スマートシティのためのデジタルツインを構築するための必須条件でもある。
しかし、既存の公開データセットは比較的小さなスケールか、正確な幾何学的およびカラーグラウンドの真理を欠いている。
本稿では,モバイルカラー化マッピングに特有な位置を占めるPolyU-BPCoMAという多感覚データセットについて述べる。
このデータセットには、バックパックプラットフォーム上の3D LiDAR、球面イメージング、GNSS、IMUのリソースが含まれている。
調査対象地域ごとにカラーチェッカーボードを貼付し、地上レーザースキャナ(tls)により地上真理データを収集する。
バックパックシステムとtlsで生成した着色点雲において、3次元幾何および色情報をそれぞれ回収することができる。
そこで我々は,移動型マルチセンサシステムにおいて,マッピングとカラー化の精度を同時にベンチマークする機会を提供する。
データセットは約800GBで、屋内と屋外の両方の環境をカバーする。
データセットと開発キットはhttps://github.com/chenpengxin/PolyU-BPCoMa.gitで入手できる。
関連論文リスト
- The Oxford Spires Dataset: Benchmarking Large-Scale LiDAR-Visual Localisation, Reconstruction and Radiance Field Methods [10.265865092323041]
本稿では,オックスフォードの有名なランドマーク周辺で収集された大規模マルチモーダルデータセットを紹介する。
また、ローカライゼーション、再構築、新規ビュー合成を含むタスクのベンチマークも作成する。
我々のデータセットとベンチマークは、放射場法とSLAMシステムのより良い統合を容易にすることを意図している。
論文 参考訳(メタデータ) (2024-11-15T19:43:24Z) - Pre-Training LiDAR-Based 3D Object Detectors Through Colorization [65.03659880456048]
我々は,データとラベルのギャップを埋めるために,革新的な事前学習手法であるグラウンドドポイントカラー化(GPC)を導入する。
GPCは、LiDAR点雲を色付けし、価値あるセマンティック・キューを装備するモデルを教えている。
KITTIとデータセットの実験結果は、GPCの顕著な効果を示している。
論文 参考訳(メタデータ) (2023-10-23T06:00:24Z) - Tinto: Multisensor Benchmark for 3D Hyperspectral Point Cloud
Segmentation in the Geosciences [9.899276249773425]
我々は,地質図作成のための深層学習手法の開発と検証を容易にするために設計された,デジタルアウトクロップのベンチマークデータセットであるTintoを提示する。
Tintoは,1)Corta Atalaya(Spain)の実際のデジタルアウトクロップモデル,2)スペクトル特性と地中構造データ,2)原データセットの潜在特徴を用いて地中構造からリアルなスペクトルデータを再構成する合成双生児からなる。
我々はこれらのデータセットを用いて、地質図の自動作成のための異なるディープラーニングアプローチの能力を探索した。
論文 参考訳(メタデータ) (2023-05-17T03:24:08Z) - ARKitTrack: A New Diverse Dataset for Tracking Using Mobile RGB-D Data [75.73063721067608]
我々は,AppleのiPhoneおよびiPadに搭載されたコンシューマグレードのLiDARスキャナーによってキャプチャされた静的および動的シーンの両方を対象とした新しいRGB-D追跡データセットを提案する。
ARKitTrackには300のRGB-Dシーケンス、455のターゲット、229.7Kのビデオフレームが含まれている。
詳細な実験分析により,ARKitTrackデータセットがRGB-D追跡を著しく促進し,提案手法が芸術的状況と良好に比較できることが確認された。
論文 参考訳(メタデータ) (2023-03-24T09:51:13Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - ARKitScenes -- A Diverse Real-World Dataset For 3D Indoor Scene
Understanding Using Mobile RGB-D Data [3.782277759568992]
Kinectのような商用深度センサーは、過去数年間でいくつかのRGB-Dデータセットのリリースを可能にした。
さらに最近では、AppleのiPadとiPhoneでLiDARセンサーがローンチされ、高品質のRGB-Dデータは、一般のデバイスで何百万人もの人にアクセスできるようになりました。
私たちはARKitScenesを紹介します。これは、現在広く利用可能な深度センサーでキャプチャされた最初のRGB-Dデータセットです。
論文 参考訳(メタデータ) (2021-11-17T04:27:01Z) - RGB-D Saliency Detection via Cascaded Mutual Information Minimization [122.8879596830581]
既存のRGB-Dサリエンシ検出モデルは、RGBと深さを効果的にマルチモーダル学習を実現するために明示的に奨励するものではない。
本稿では,RGB画像と深度データ間のマルチモーダル情報を「明示的」にモデル化するために,相互情報最小化による新しい多段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-15T12:31:27Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - An Overview Of 3D Object Detection [21.159668390764832]
マルチクラスオブジェクト認識を行うために,RGBデータとポイントクラウドデータの両方を用いるフレームワークを提案する。
最近リリースされたnuScenesデータセット - 大規模なデータセットには多くのデータフォーマットが含まれています - をトレーニングし、提案したアーキテクチャを評価します。
論文 参考訳(メタデータ) (2020-10-29T14:04:50Z) - LayoutMP3D: Layout Annotation of Matterport3D [59.11106101006007]
Matterport3Dデータセットは、当初提供されていた深度マップ基底真理と共に検討し、さらにMatterport3Dのサブセットからレイアウト基底真理のアノテーションを公開します。
私たちのデータセットはレイアウト情報と深度情報の両方を提供しており、両方のキューを統合することで環境を探索する機会を提供します。
論文 参考訳(メタデータ) (2020-03-30T14:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。