論文の概要: WHU-PCPR: A cross-platform heterogeneous point cloud dataset for place recognition in complex urban scenes
- arxiv url: http://arxiv.org/abs/2601.06442v1
- Date: Sat, 10 Jan 2026 05:53:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.816959
- Title: WHU-PCPR: A cross-platform heterogeneous point cloud dataset for place recognition in complex urban scenes
- Title(参考訳): WHU-PCPR:複雑な都市景観における位置認識のためのクロスプラットフォーム不均一点クラウドデータセット
- Authors: Xianghong Zou, Jianping Li, Yandi Yang, Weitong Wu, Yuan Wang, Qiegen Liu, Zhen Dong,
- Abstract要約: ポイントクラウドベースのPlace Recognition(PCPR)は、自律運転、ロボットのローカライゼーションとナビゲーション、マップ更新などのアプリケーションにおいて、大きな可能性を示している。
既存のPCPRデータセットはシーン、プラットフォーム、センサーの多様性に欠けており、関連する研究の効果的な開発を制限している。
位置認識用に設計されたクロスプラットフォームの異種点クラウドデータセットであるWHU-PCPRを構築した。
- 参考スコア(独自算出の注目度): 10.070618717839737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point Cloud-based Place Recognition (PCPR) demonstrates considerable potential in applications such as autonomous driving, robot localization and navigation, and map update. In practical applications, point clouds used for place recognition are often acquired from different platforms and LiDARs across varying scene. However, existing PCPR datasets lack diversity in scenes, platforms, and sensors, which limits the effective development of related research. To address this gap, we establish WHU-PCPR, a cross-platform heterogeneous point cloud dataset designed for place recognition. The dataset differentiates itself from existing datasets through its distinctive characteristics: 1) cross-platform heterogeneous point clouds: collected from survey-grade vehicle-mounted Mobile Laser Scanning (MLS) systems and low-cost Portable helmet-mounted Laser Scanning (PLS) systems, each equipped with distinct mechanical and solid-state LiDAR sensors. 2) Complex localization scenes: encompassing real-time and long-term changes in both urban and campus road scenes. 3) Large-scale spatial coverage: featuring 82.3 km of trajectory over a 60-month period and an unrepeated route of approximately 30 km. Based on WHU-PCPR, we conduct extensive evaluation and in-depth analysis of several representative PCPR methods, and provide a concise discussion of key challenges and future research directions. The dataset and benchmark code are available at https://github.com/zouxianghong/WHU-PCPR.
- Abstract(参考訳): ポイントクラウドベースのPlace Recognition(PCPR)は、自律運転、ロボットのローカライゼーションとナビゲーション、マップ更新などのアプリケーションにおいて、大きな可能性を示している。
現実的なアプリケーションでは、位置認識に使用されるポイントクラウドは、様々な場面で異なるプラットフォームやLiDARから取得されることが多い。
しかし、既存のPCPRデータセットはシーン、プラットフォーム、センサーの多様性に欠けており、関連する研究の効果的な開発を制限している。
このギャップに対処するために、位置認識用に設計されたクロスプラットフォームの異種点クラウドデータセットであるWHU-PCPRを確立する。
データセットは、その特徴によって、既存のデータセットと差別化します。
1) 車両搭載型移動レーザ走査(MLS)システムと低コストな可搬型ヘルメット搭載型レーザー走査(PLS)システムから収集したクロスプラットフォームの異種点雲は,それぞれ異なる機械的および固体LiDARセンサを備えている。
2)複雑な位置決めシーン:都市道路とキャンパス道路の両方におけるリアルタイム・長期的変化を包含する。
3)大規模な空間被覆:60ヶ月にわたって82.3kmの軌道と約30kmの未反復ルートを特徴とする。
WHU-PCPRに基づいて、いくつかの代表的PCPR手法の広範囲な評価と詳細な分析を行い、重要な課題と今後の研究方向性について簡潔に議論する。
データセットとベンチマークコードはhttps://github.com/zouxianghong/WHU-PCPRで公開されている。
関連論文リスト
- 3EED: Ground Everything Everywhere in 3D [64.28938045702077]
3EEDはマルチプラットフォームでマルチモーダルな3Dグラウンドベンチマークで、RGBとLiDARのデータが車、ドローン、四足歩行プラットフォームから提供されている。
128,000以上のオブジェクトと22,000以上の検証済みの参照表現を、さまざまな屋外シーンにわたって提供しています。
論文 参考訳(メタデータ) (2025-11-03T17:05:22Z) - Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - Benchmarking Egocentric Visual-Inertial SLAM at City Scale [50.1245744173948]
本稿では,エゴセントリックなマルチモーダルデータを用いた視覚慣性SLAMのための新しいデータセットとベンチマークを提案する。
我々は、様々なセンサーを備えたメガネのような装置で、市内の中心部を何時間、何キロもの軌跡を記録している。
アカデミックによって開発された最先端のシステムは、これらの課題に対して堅牢ではないことを示し、これに責任を負うコンポーネントを特定します。
論文 参考訳(メタデータ) (2025-09-30T17:59:31Z) - Ground Awareness in Deep Learning for Large Outdoor Point Cloud Segmentation [0.0]
密集した屋外の点雲では、機械学習モデルの受容場は小さすぎて、点の周囲や文脈を正確に決定できない。
点雲からDTM(Digital Terrain Models)を計算することにより、地形から点までの垂直距離である相対的な標高特徴を抽出する。
RandLA-Netは、大規模な点雲の効率的なセマンティックセマンティックセグメンテーションに使用される。
論文 参考訳(メタデータ) (2025-01-30T10:27:28Z) - GSPR: Multimodal Place Recognition Using 3D Gaussian Splatting for Autonomous Driving [9.023864430027333]
我々はGPSRと呼ばれる3次元ガウススプラッティングに基づくマルチモーダル位置認識ネットワークを提案する。
マルチビューRGB画像とLiDAR点雲を時間的に統一されたシーン表現とMultimodal Gaussian Splattingを明示的に組み合わせている。
提案手法は,多視点カメラとLiDARの相補的強度を有効活用し,ソタ位置認識性能を向上し,ソタ位置認識性能を向上する。
論文 参考訳(メタデータ) (2024-10-01T00:43:45Z) - VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - SSCBench: A Large-Scale 3D Semantic Scene Completion Benchmark for Autonomous Driving [87.8761593366609]
SSCBenchは、広く使用されている自動車データセットのシーンを統合するベンチマークである。
我々は、単眼、三眼、クラウド入力を用いて、性能ギャップを評価するモデルをベンチマークする。
クロスドメインの一般化テストを簡単にするために、さまざまなデータセットにまたがったセマンティックラベルを統一しています。
論文 参考訳(メタデータ) (2023-06-15T09:56:33Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - Cirrus: A Long-range Bi-pattern LiDAR Dataset [35.87501129332217]
我々は、自律運転タスクのための新しい長距離二パターンLiDARパブリックデータセットであるCirrusを紹介する。
我々のプラットフォームには高解像度ビデオカメラと250メートルの有効範囲のLiDARセンサーが装備されている。
Cirrusでは、8つのカテゴリのオブジェクトが、有効範囲全体のLiDAR点雲に完全に注釈付けされている。
論文 参考訳(メタデータ) (2020-12-05T03:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。