論文の概要: ROVER: A Multi-Season Dataset for Visual SLAM
- arxiv url: http://arxiv.org/abs/2412.02506v2
- Date: Sun, 30 Mar 2025 17:53:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 15:20:31.110362
- Title: ROVER: A Multi-Season Dataset for Visual SLAM
- Title(参考訳): ROVER: Visual SLAMのためのマルチシーソンデータセット
- Authors: Fabian Schmidt, Julian Daubermann, Marcel Mitschke, Constantin Blessing, Stefan Meyer, Markus Enzweiler, Abhinav Valada,
- Abstract要約: ROVERは、様々な環境条件下で視覚SLAMアルゴリズムを評価するためのベンチマークデータセットである。
5つの屋外に39の録音があり、季節ごとの収集と様々な照明のシナリオがある。
その結果, ステレオ慣性・RGBD構成は, 照明条件下では良好であるが, SLAMシステムの多くは低照度・高植生環境では不十分であることがわかった。
- 参考スコア(独自算出の注目度): 7.296917102476635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust SLAM is a crucial enabler for autonomous navigation in natural, semi-structured environments such as parks and gardens. However, these environments present unique challenges for SLAM due to frequent seasonal changes, varying light conditions, and dense vegetation. These factors often degrade the performance of visual SLAM algorithms originally developed for structured urban environments. To address this gap, we present ROVER, a comprehensive benchmark dataset tailored for evaluating visual SLAM algorithms under diverse environmental conditions and spatial configurations. We captured the dataset with a robotic platform equipped with monocular, stereo, and RGBD cameras, as well as inertial sensors. It covers 39 recordings across five outdoor locations, collected through all seasons and various lighting scenarios, i.e., day, dusk, and night with and without external lighting. With this novel dataset, we evaluate several traditional and deep learning-based SLAM methods and study their performance in diverse challenging conditions. The results demonstrate that while stereo-inertial and RGBD configurations generally perform better under favorable lighting and moderate vegetation, most SLAM systems perform poorly in low-light and high-vegetation scenarios, particularly during summer and autumn. Our analysis highlights the need for improved adaptability in visual SLAM algorithms for outdoor applications, as current systems struggle with dynamic environmental factors affecting scale, feature extraction, and trajectory consistency. This dataset provides a solid foundation for advancing visual SLAM research in real-world, semi-structured environments, fostering the development of more resilient SLAM systems for long-term outdoor localization and mapping. The dataset and the code of the benchmark are available under https://iis-esslingen.github.io/rover.
- Abstract(参考訳): ロバストSLAMは、公園や庭園のような自然で半構造化された環境において、自律的なナビゲーションを可能にする重要な手段である。
しかし、これらの環境は、季節変化の頻繁さ、光条件の変化、植生の密接さにより、SLAMに固有の課題を呈している。
これらの要因は、もともと都市環境向けに開発された視覚SLAMアルゴリズムの性能を劣化させることが多い。
このギャップに対処するために,多様な環境条件と空間構成下での視覚SLAMアルゴリズムの評価に適した総合ベンチマークデータセットROVERを提案する。
私たちはこのデータセットを、単眼、ステレオ、RGBDカメラ、慣性センサーを備えたロボットプラットフォームで捉えました。
5つの屋外にある39の録音をカバーし、すべての季節を通じて収集され、昼、夕暮れ、夜、外光のない様々な照明シナリオをカバーしている。
この新たなデータセットを用いて、従来型および深層学習に基づくSLAM手法を評価し、様々な困難条件下でそれらの性能について検討する。
その結果, 立体慣性およびRGBD構成は, 概して照度や適度な植生よりも優れていたが, 多くのSLAMシステムは, 夏と秋の低照度・高植生のシナリオにおいて, 性能が良くないことがわかった。
我々の分析は、現在のシステムは、スケール、特徴抽出、軌道整合性に影響を与える動的環境要因に悩まされているため、屋外アプリケーションにおける視覚的SLAMアルゴリズムの適応性の改善の必要性を強調している。
このデータセットは、現実世界の半構造化環境における視覚的SLAM研究を進めるための確かな基盤を提供し、長期の屋外ローカライゼーションとマッピングのためのよりレジリエントなSLAMシステムの開発を促進する。
ベンチマークのデータセットとコードはhttps://iis-esslingen.github.io/roverで公開されている。
関連論文リスト
- SLAM&Render: A Benchmark for the Intersection Between Neural Rendering, Gaussian Splatting and SLAM [7.328366964504612]
SLAM&Renderは、SLAMとビューレンダリングの交差点でメソッドをベンチマークするために設計された、新しいデータセットである。
40のシーケンスで構成され、同期RGB、深さ、IMU、ロボットキネマティックデータ、グラウンドトルースポーズストリームで構成されている。
ロボットキネマティックデータをリリースすることにより、ロボットマニピュレータに適用した場合に、新しいSLAM戦略の評価が可能になる。
論文 参考訳(メタデータ) (2025-04-18T14:28:34Z) - WildGS-SLAM: Monocular Gaussian Splatting SLAM in Dynamic Environments [48.51530726697405]
WildGS-SLAMは、動的環境を扱うために設計された、堅牢で効率的な単分子RGB SLAMシステムである。
本研究では,浅い多層パーセプトロンとDINOv2の特徴によって予測される不確実性マップを導入し,追跡とマッピングの両方において動的物体除去を誘導する。
その結果,WildGS-SLAMの動的環境における性能は最先端の手法に比べて優れていた。
論文 参考訳(メタデータ) (2025-04-04T19:19:40Z) - Multi-modal Multi-platform Person Re-Identification: Benchmark and Method [58.59888754340054]
MP-ReIDは、マルチモダリティとマルチプラットフォームReIDに特化した新しいデータセットである。
このベンチマークは、RGB、赤外線、サーマルイメージングなど、さまざまなモードで1,930のIDからデータをコンパイルする。
クロスモダリティとクロスプラットフォームシナリオに適した,特定設計のプロンプトを備えたフレームワークであるUni-Prompt ReIDを紹介する。
論文 参考訳(メタデータ) (2025-03-21T12:27:49Z) - NeRF and Gaussian Splatting SLAM in the Wild [9.516289996766059]
本研究は, カメラトラッキングの精度, 環境要因に対する堅牢性, 計算効率に焦点をあて, 異なるトレードオフを浮き彫りにしている。
ニューラルSLAM法は、特に低光のような困難な条件下では、高い計算コストで優れた堅牢性を達成する。
伝統的な手法は季節を通じて最高に機能するが、照明条件の変化に非常に敏感である。
論文 参考訳(メタデータ) (2024-12-04T12:11:19Z) - InCrowd-VI: A Realistic Visual-Inertial Dataset for Evaluating SLAM in Indoor Pedestrian-Rich Spaces for Human Navigation [2.184775414778289]
InCrowd-VIは、屋内歩行者に富む環境において、人間のナビゲーション用に特別に設計された新しいビジュアル・慣性データセットである。
InCrowd-VIは、RGB、ステレオ画像、IMU測定を含む5kmの軌道長と1.5時間の録音時間を含む58のシーケンスを特徴としている。
このデータセットはMeta Ariaプロジェクトマシン認識SLAMサービスに由来する。
論文 参考訳(メタデータ) (2024-11-21T17:58:07Z) - QueensCAMP: an RGB-D dataset for robust Visual SLAM [0.0]
本稿では,VSLAMシステムのロバスト性を評価するために設計された新しいRGB-Dデータセットを提案する。
データセットは、動的オブジェクト、動きのぼかし、様々な照明を備えた現実世界の屋内シーンで構成されている。
我々は、任意の画像にカメラ障害を注入するためのオープンソースのスクリプトを提供し、さらなるカスタマイズを可能にします。
論文 参考訳(メタデータ) (2024-10-16T12:58:08Z) - Visual-Inertial SLAM for Unstructured Outdoor Environments: Benchmarking the Benefits and Computational Costs of Loop Closing [8.711135744156564]
本稿では,未構造化の屋外環境での性能を評価するために,オープンソースのVisual-Inertial SLAMシステムをいくつかベンチマークする。
ループ閉鎖が局所化精度と計算要求に与える影響に焦点をあてる。
計算資源を効率的に管理しながら、ローカライズ精度を向上させるためにループクローズの重要性を強調した。
論文 参考訳(メタデータ) (2024-08-03T09:10:38Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - Dense RGB-D-Inertial SLAM with Map Deformations [25.03159756734727]
密結合型RGB-D-慣性SLAMシステムを提案する。
我々は,RGB-DのみのSLAMシステムよりも,低テクスチャ,低幾何学的変動の速い動きや周期に対して,より堅牢であることを示す。
論文 参考訳(メタデータ) (2022-07-22T08:33:38Z) - PLD-SLAM: A Real-Time Visual SLAM Using Points and Line Segments in
Dynamic Scenes [0.0]
本稿では,点と線の特徴を組み合わせたリアルタイムステレオ間接視覚SLAMシステム PLD-SLAMを提案する。
また,適切な選択と効率的なループ閉鎖検出を実現するため,グローバルグレー類似度(GGS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-22T07:40:00Z) - The Hilti SLAM Challenge Dataset [41.091844019181735]
構築環境は、同時局所化とマッピング(SLAM)アルゴリズムに難しい問題を引き起こす。
本研究を支援するために,Hilti SLAM Challengeデータセットという新しいデータセットを提案する。
各データセットには正確な基底真理が含まれており、SLAM結果を直接テストすることができる。
論文 参考訳(メタデータ) (2021-09-23T12:02:40Z) - 4Seasons: A Cross-Season Dataset for Multi-Weather SLAM in Autonomous
Driving [48.588254700810474]
本稿では,自律運転における季節的・挑戦的な知覚条件をカバーする新しいデータセットを提案する。
その中には、視覚計測、グローバルな位置認識、マップベースの再位置追跡などが含まれる。
論文 参考訳(メタデータ) (2020-09-14T12:31:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。