論文の概要: Pit30M: A Benchmark for Global Localization in the Age of Self-Driving Cars
- arxiv url: http://arxiv.org/abs/2012.12437v2
- Date: Wed, 1 May 2024 02:07:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 20:57:20.516259
- Title: Pit30M: A Benchmark for Global Localization in the Age of Self-Driving Cars
- Title(参考訳): Pit30M: 自動運転車時代のグローバルローカライゼーションのベンチマーク
- Authors: Julieta Martinez, Sasha Doubov, Jack Fan, Ioan Andrei Bârsan, Shenlong Wang, Gellért Máttyus, Raquel Urtasun,
- Abstract要約: Pit30Mは3000万フレームを超える新しい画像とLiDARデータセットで、これは以前の研究の10倍から100倍の大きさだ。
Pit30Mは様々な条件(季節、天気、日時、交通量)で捕獲され、正確な位置決めの真実を提供する。
我々は、画像とLiDAR検索のための既存の複数の手法をベンチマークし、その過程で、単純で効果的な畳み込みネットワークに基づくLiDAR検索手法を導入する。
- 参考スコア(独自算出の注目度): 39.94419250485135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We are interested in understanding whether retrieval-based localization approaches are good enough in the context of self-driving vehicles. Towards this goal, we introduce Pit30M, a new image and LiDAR dataset with over 30 million frames, which is 10 to 100 times larger than those used in previous work. Pit30M is captured under diverse conditions (i.e., season, weather, time of the day, traffic), and provides accurate localization ground truth. We also automatically annotate our dataset with historical weather and astronomical data, as well as with image and LiDAR semantic segmentation as a proxy measure for occlusion. We benchmark multiple existing methods for image and LiDAR retrieval and, in the process, introduce a simple, yet effective convolutional network-based LiDAR retrieval method that is competitive with the state of the art. Our work provides, for the first time, a benchmark for sub-metre retrieval-based localization at city scale. The dataset, its Python SDK, as well as more information about the sensors, calibration, and metadata, are available on the project website: https://pit30m.github.io/
- Abstract(参考訳): 我々は、自動運転車の文脈において、検索ベースのローカライゼーションアプローチが十分であるかどうかを理解することに興味を持っている。
この目標に向けて、3000万フレームを超える新しいイメージとLiDARデータセットであるPit30Mを紹介します。
Pit30Mは様々な条件(季節、天気、日時、交通量)で捕獲され、正確な位置決めの真実を提供する。
また、過去の気象や天文学的なデータに加えて、画像やLiDARセマンティックセマンティックセグメンテーションをオクルージョンのプロキシ尺度として自動的にアノテートします。
我々は、画像とLiDAR検索のための既存の複数の手法をベンチマークし、その過程で、最先端技術と競合する単純な、効果的な畳み込みネットワークベースのLiDAR検索手法を導入する。
我々の研究は、初めて、都市規模でのサブメートル検索に基づくローカライゼーションのベンチマークを提供する。
データセット、Python SDK、センサー、キャリブレーション、メタデータに関する詳細な情報は、プロジェクトのWebサイトで公開されている。
関連論文リスト
- UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - ALTO: A Large-Scale Dataset for UAV Visual Place Recognition and
Localization [22.992887167994766]
ALTOデータセットは、無人航空機の視覚的位置認識手法の開発とベンチマークのためのビジョン中心のデータセットである。
このデータセットは2つの長い(約150kmと260km)軌道から成り、オハイオとペンシルバニアの上空をヘリコプターで飛んでいる。
論文 参考訳(メタデータ) (2022-07-19T21:13:44Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Topo-boundary: A Benchmark Dataset on Topological Road-boundary
Detection Using Aerial Images for Autonomous Driving [11.576868193291997]
オフライントポロジカル道路境界検出のための新しいベンチマークデータセットであるtextitTopo-boundaryを提案する。
データセットには21,556$1000times 1000$-size 4-channel aerial imageが含まれる。
データセットを用いて,3つのセグメンテーションベースラインと5つのグラフベースラインを実装し,評価する。
論文 参考訳(メタデータ) (2021-03-31T14:42:00Z) - Road Network Metric Learning for Estimated Time of Arrival [93.0759529610483]
本稿では,ATA(Estimated Time of Arrival)のための道路ネットワークメトリックラーニングフレームワークを提案する。
本研究は,(1)走行時間を予測する主回帰タスク,(2)リンク埋め込みベクトルの品質向上のための補助的計量学習タスクの2つの構成要素から構成される。
提案手法は最先端モデルよりも優れており,その促進は少ないデータでコールドリンクに集中していることを示す。
論文 参考訳(メタデータ) (2020-06-24T04:45:14Z) - LiDAR guided Small obstacle Segmentation [14.880698940693609]
道路上の小さな障害物は自動運転に不可欠である。
スパースLiDARとモノクルビジョンのマルチモーダルフレームワークを用いて,そのような障害を確実に検出する手法を提案する。
コンテキストをモノケプティックなセマンティックセグメンテーションフレームワークに追加入力として入力すると、性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-03-12T18:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。