論文の概要: 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions
- arxiv url: http://arxiv.org/abs/2301.01147v1
- Date: Sat, 31 Dec 2022 13:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 14:38:06.045533
- Title: 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions
- Title(参考訳): 4シーズン:ヴィジュアルスラムのベンチマークと自律運転の長期的位置決め
- Authors: Patrick Wenzel, Nan Yang, Rui Wang, Niclas Zeller, Daniel Cremers
- Abstract要約: 大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
- 参考スコア(独自算出の注目度): 54.59279160621111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel visual SLAM and long-term localization
benchmark for autonomous driving in challenging conditions based on the
large-scale 4Seasons dataset. The proposed benchmark provides drastic
appearance variations caused by seasonal changes and diverse weather and
illumination conditions. While significant progress has been made in advancing
visual SLAM on small-scale datasets with similar conditions, there is still a
lack of unified benchmarks representative of real-world scenarios for
autonomous driving. We introduce a new unified benchmark for jointly evaluating
visual odometry, global place recognition, and map-based visual localization
performance which is crucial to successfully enable autonomous driving in any
condition. The data has been collected for more than one year, resulting in
more than 300 km of recordings in nine different environments ranging from a
multi-level parking garage to urban (including tunnels) to countryside and
highway. We provide globally consistent reference poses with up to
centimeter-level accuracy obtained from the fusion of direct stereo-inertial
odometry with RTK GNSS. We evaluate the performance of several state-of-the-art
visual odometry and visual localization baseline approaches on the benchmark
and analyze their properties. The experimental results provide new insights
into current approaches and show promising potential for future research. Our
benchmark and evaluation protocols will be available at
https://www.4seasons-dataset.com/.
- Abstract(参考訳): 本稿では,大規模4Seasonsデータセットに基づく挑戦条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークは,季節変化や天候,照明条件の変動による劇的な外見の変化を提供する。
同様の条件の小規模なデータセット上での視覚的SLAMの進歩には大きな進歩があるが、自動運転の現実シナリオを表す統一ベンチマークはいまだに存在しない。
我々は,任意の条件下での自律運転の実現に不可欠である,視覚計測,グローバル位置認識,マップに基づく視覚的位置決め性能を共同評価するための新しい統一ベンチマークを導入する。
データは1年以上にわたって収集され、多層駐車場から都市部(トンネルを含む)、田舎や高速道路まで、9つの環境において300kmを超える録音が行われた。
RTK GNSSと直接ステレオ慣性眼圧計の融合から得られる最大センチメートルの精度で一貫した参照ポーズを提供する。
本研究では,最先端の視覚オドメトリおよび視覚定位ベースライン手法の性能評価を行い,その特性を解析した。
実験結果は、現在のアプローチに対する新たな洞察を与え、将来の研究に有望な可能性を示している。
ベンチマークおよび評価プロトコルはhttps://www.4seasons-dataset.com/で利用可能です。
関連論文リスト
- XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking [65.24988062003096]
我々は,視覚に基づく運転ポリシーをベンチマークするフレームワークであるNAVSIMを提案する。
我々のシミュレーションは非反応性であり、評価された政策と環境は互いに影響を与えない。
NAVSIMはCVPR 2024で開催され、143チームが433のエントリーを提出し、いくつかの新たな洞察を得た。
論文 参考訳(メタデータ) (2024-06-21T17:59:02Z) - Is Ego Status All You Need for Open-Loop End-to-End Autonomous Driving? [84.17711168595311]
エンドツーエンドの自動運転は、フルスタックの観点から自律性を目標とする、有望な研究の方向性として浮上している。
比較的単純な駆動シナリオを特徴とするnuScenesデータセットは、エンド・ツー・エンド・モデルにおける知覚情報の未使用化につながる。
予測軌跡が道路に付着するかどうかを評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-12-05T11:32:31Z) - What you see is what you get: Experience ranking with deep neural
dataset-to-dataset similarity for topological localisation [19.000718685399935]
本稿では,画像のデータセットを比較するための高度にスケーラブルなツールとして,最近開発されたVisual DNAを適用することを提案する。
ローカライゼーションの場合、パフォーマンスに影響を与える重要なデータセットの違いは、天気、照明、季節など、外観の変化のモードである。
これらの統計の相違は、過去の経験と同一の出現ギャップを用いたローカライズにおける性能と相関することがわかった。
論文 参考訳(メタデータ) (2023-10-20T16:13:21Z) - CrowdDriven: A New Challenging Dataset for Outdoor Visual Localization [44.97567243883994]
クラウドソースデータを用いた屋外シーンにおける視覚的位置推定のための新しいベンチマークを提案する。
私たちのデータセットは非常に困難で、評価されたすべてのメソッドが最も難しい部分で失敗していることが示されています。
データセットリリースの一部として、私たちはそれを生成するために使用されるツールを提供し、効率的で効果的な2D対応アノテーションを可能にします。
論文 参考訳(メタデータ) (2021-09-09T19:25:48Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - 4Seasons: A Cross-Season Dataset for Multi-Weather SLAM in Autonomous
Driving [48.588254700810474]
本稿では,自律運転における季節的・挑戦的な知覚条件をカバーする新しいデータセットを提案する。
その中には、視覚計測、グローバルな位置認識、マップベースの再位置追跡などが含まれる。
論文 参考訳(メタデータ) (2020-09-14T12:31:20Z) - Real-time Kinematic Ground Truth for the Oxford RobotCar Dataset [23.75606166843614]
大規模なOxford RobotCarデータセットに基づく長期ローカライゼーションおよびマッピングベンチマークに向けた参照データをリリースする。
我々は,データセットの1年間にわたって,グローバルに一貫性のある精度の高い基底真理を作成した。
論文 参考訳(メタデータ) (2020-02-24T10:34:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。