論文の概要: 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for Autonomous Driving in Challenging Conditions
- arxiv url: http://arxiv.org/abs/2301.01147v2
- Date: Thu, 19 Jun 2025 20:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.554878
- Title: 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for Autonomous Driving in Challenging Conditions
- Title(参考訳): 4Seasons: カオス環境での視覚SLAMのベンチマークと自律運転のための長期的ローカライゼーション
- Authors: Patrick Wenzel, Nan Yang, Rui Wang, Niclas Zeller, Daniel Cremers,
- Abstract要約: 大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
- 参考スコア(独自算出の注目度): 46.03430162297781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel visual SLAM and long-term localization benchmark for autonomous driving in challenging conditions based on the large-scale 4Seasons dataset. The proposed benchmark provides drastic appearance variations caused by seasonal changes and diverse weather and illumination conditions. While significant progress has been made in advancing visual SLAM on small-scale datasets with similar conditions, there is still a lack of unified benchmarks representative of real-world scenarios for autonomous driving. We introduce a new unified benchmark for jointly evaluating visual odometry, global place recognition, and map-based visual localization performance which is crucial to successfully enable autonomous driving in any condition. The data has been collected for more than one year, resulting in more than 300 km of recordings in nine different environments ranging from a multi-level parking garage to urban (including tunnels) to countryside and highway. We provide globally consistent reference poses with up to centimeter-level accuracy obtained from the fusion of direct stereo-inertial odometry with RTK GNSS. We evaluate the performance of several state-of-the-art visual odometry and visual localization baseline approaches on the benchmark and analyze their properties. The experimental results provide new insights into current approaches and show promising potential for future research. Our benchmark and evaluation protocols will be available at https://go.vision.in.tum.de/4seasons.
- Abstract(参考訳): 本稿では,大規模4Seasonsデータセットに基づく挑戦条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
同様の条件の小規模なデータセット上での視覚的SLAMの進歩には大きな進歩があるが、自動運転の現実シナリオを表す統一ベンチマークはいまだに存在しない。
我々は,任意の状況下での自律運転の実現に不可欠である,視覚計測,世界的位置認識,地図に基づく視覚的位置決め性能を共同評価するための新しい統一ベンチマークを導入する。
データは1年以上にわたって収集され、多層駐車場から都市部(トンネルを含む)、田舎や高速道路まで、9つの環境において300kmを超える録音が行われた。
我々は,RTK GNSSと直接ステレオ慣性眼圧計の融合から得られる,最大1cmの精度で一貫した参照ポーズを提供する。
提案手法の性能評価を行い,その特性について検討した。
実験結果は、現在のアプローチに対する新たな洞察を与え、将来の研究に有望な可能性を示している。
ベンチマークと評価のプロトコルはhttps://go.vision.in.tum.de/4seasons.orgで公開されます。
関連論文リスト
- XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking [65.24988062003096]
我々は,視覚に基づく運転ポリシーをベンチマークするフレームワークであるNAVSIMを提案する。
我々のシミュレーションは非反応性であり、評価された政策と環境は互いに影響を与えない。
NAVSIMはCVPR 2024で開催され、143チームが433のエントリーを提出し、いくつかの新たな洞察を得た。
論文 参考訳(メタデータ) (2024-06-21T17:59:02Z) - Is Ego Status All You Need for Open-Loop End-to-End Autonomous Driving? [84.17711168595311]
エンドツーエンドの自動運転は、フルスタックの観点から自律性を目標とする、有望な研究の方向性として浮上している。
比較的単純な駆動シナリオを特徴とするnuScenesデータセットは、エンド・ツー・エンド・モデルにおける知覚情報の未使用化につながる。
予測軌跡が道路に付着するかどうかを評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-12-05T11:32:31Z) - What you see is what you get: Experience ranking with deep neural
dataset-to-dataset similarity for topological localisation [19.000718685399935]
本稿では,画像のデータセットを比較するための高度にスケーラブルなツールとして,最近開発されたVisual DNAを適用することを提案する。
ローカライゼーションの場合、パフォーマンスに影響を与える重要なデータセットの違いは、天気、照明、季節など、外観の変化のモードである。
これらの統計の相違は、過去の経験と同一の出現ギャップを用いたローカライズにおける性能と相関することがわかった。
論文 参考訳(メタデータ) (2023-10-20T16:13:21Z) - CrowdDriven: A New Challenging Dataset for Outdoor Visual Localization [44.97567243883994]
クラウドソースデータを用いた屋外シーンにおける視覚的位置推定のための新しいベンチマークを提案する。
私たちのデータセットは非常に困難で、評価されたすべてのメソッドが最も難しい部分で失敗していることが示されています。
データセットリリースの一部として、私たちはそれを生成するために使用されるツールを提供し、効率的で効果的な2D対応アノテーションを可能にします。
論文 参考訳(メタデータ) (2021-09-09T19:25:48Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - 4Seasons: A Cross-Season Dataset for Multi-Weather SLAM in Autonomous
Driving [48.588254700810474]
本稿では,自律運転における季節的・挑戦的な知覚条件をカバーする新しいデータセットを提案する。
その中には、視覚計測、グローバルな位置認識、マップベースの再位置追跡などが含まれる。
論文 参考訳(メタデータ) (2020-09-14T12:31:20Z) - Real-time Kinematic Ground Truth for the Oxford RobotCar Dataset [23.75606166843614]
大規模なOxford RobotCarデータセットに基づく長期ローカライゼーションおよびマッピングベンチマークに向けた参照データをリリースする。
我々は,データセットの1年間にわたって,グローバルに一貫性のある精度の高い基底真理を作成した。
論文 参考訳(メタデータ) (2020-02-24T10:34:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。