論文の概要: IBISCape: A Simulated Benchmark for multi-modal SLAM Systems Evaluation
in Large-scale Dynamic Environments
- arxiv url: http://arxiv.org/abs/2206.13455v2
- Date: Thu, 20 Oct 2022 09:06:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 21:17:54.218514
- Title: IBISCape: A Simulated Benchmark for multi-modal SLAM Systems Evaluation
in Large-scale Dynamic Environments
- Title(参考訳): IBISCape:大規模動的環境におけるマルチモーダルSLAMシステム評価のためのシミュレーションベンチマーク
- Authors: Abanob Soliman, Fabien Bonardi, D\'esir\'e Sidib\'e and Samia Bouchafa
- Abstract要約: IBISCapeは高忠実度SLAMシステムのシミュレーションベンチマークである。
自動運転車のナビゲーションに適した34のマルチモーダルデータセットを提供します。
シミュレーションされた大規模動的環境において, 各種配列上でのORB-SLAM3システムの評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development process of high-fidelity SLAM systems depends on their
validation upon reliable datasets. Towards this goal, we propose IBISCape, a
simulated benchmark that includes data synchronization and acquisition APIs for
telemetry from heterogeneous sensors: stereo-RGB/DVS, Depth, IMU, and GPS,
along with the ground truth scene segmentation and vehicle ego-motion. Our
benchmark is built upon the CARLA simulator, whose back-end is the Unreal
Engine rendering a high dynamic scenery simulating the real world. Moreover, we
offer 34 multi-modal datasets suitable for autonomous vehicles navigation,
including scenarios for scene understanding evaluation like accidents, along
with a wide range of frame quality based on a dynamic weather simulation class
integrated with our APIs. We also introduce the first calibration targets to
CARLA maps to solve the unknown distortion parameters problem of CARLA
simulated DVS and RGB cameras. Finally, using IBISCape sequences, we evaluate
four ORB-SLAM3 systems (monocular RGB, stereo RGB, Stereo Visual Inertial
(SVI), and RGB-D) performance and BASALT Visual-Inertial Odometry (VIO) system
on various sequences collected in simulated large-scale dynamic environments.
Keywords: benchmark, multi-modal, datasets, Odometry, Calibration, DVS, SLAM
- Abstract(参考訳): 高忠実度SLAMシステムの開発プロセスは、信頼性のあるデータセットに対する検証に依存する。
この目的に向けて,同種センサ(ステレオRGB/DVS,Depth,IMU,GPS)からのテレメトリのためのデータ同期と取得APIと,地上の真実シーンのセグメンテーションと車両のエゴモーションを含むシミュレーションベンチマークであるIBISCapeを提案する。
我々のベンチマークはCARLAシミュレータ上に構築されており、そのバックエンドはUnreal Engineであり、現実世界をシミュレートする高ダイナミックなシーンをレンダリングする。
さらに,自動走行車ナビゲーションに適した34のマルチモーダルデータセットを提供し,事故などのシーン理解評価のシナリオと,我々のAPIと統合した動的気象シミュレーションクラスに基づく幅広いフレーム品質を提供する。
また、CARLAシミュレーションDVSおよびRGBカメラの未知の歪みパラメータ問題を解決するために、CARLAマップに最初のキャリブレーションターゲットを導入する。
最後に, IBISCape シーケンスを用いて, シミュレーションされた大規模動的環境において収集された4つのORB-SLAM3システム(モノクロRGB, ステレオRGB, ステレオSVI, ステレオRGB-D)と BASALT Visual-Inertial Odometry (VIO) システムの評価を行った。
キーワード:ベンチマーク、マルチモーダル、データセット、Odometry、Calibration、DVS、SLAM
関連論文リスト
- LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - AVOIDDS: Aircraft Vision-based Intruder Detection Dataset and Simulator [37.579437595742995]
AVOIDDSは、視覚に基づく航空機の検知・回避問題に対する現実的な物体検出ベンチマークである。
各種照明条件を有する侵入機の光実写画像72,000枚からなるラベル付きデータセットを提供する。
また、このデータセットのスライス上でトレーニングされたモデルを評価し、環境条件の変化に対する性能の変化を特定するインタフェースも提供する。
論文 参考訳(メタデータ) (2023-06-19T23:58:07Z) - DH-PTAM: A Deep Hybrid Stereo Events-Frames Parallel Tracking And
Mapping System [0.0]
本稿では,視覚的並列追跡・マッピング(PTAM)システムに対するロバストなアプローチを提案する。
提案手法は,異種多モード視覚センサの強度を統一参照フレームに組み合わせたものである。
私たちの実装のリサーチベースのPython APIはGitHubで公開されています。
論文 参考訳(メタデータ) (2023-06-02T19:52:13Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - R$^3$LIVE++: A Robust, Real-time, Radiance reconstruction package with a
tightly-coupled LiDAR-Inertial-Visual state Estimator [5.972044427549262]
同時ローカライゼーションとマッピング(SLAM)は、自律ロボット(例えば、自動運転車、無人ドローン)、3Dマッピングシステム、AR/VRアプリケーションに不可欠である。
この研究は、R$3$LIVE++と呼ばれる新しいLiDAR-慣性-視覚融合フレームワークを提案した。
論文 参考訳(メタデータ) (2022-09-08T09:26:20Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Robust Odometry and Mapping for Multi-LiDAR Systems with Online
Extrinsic Calibration [15.946728828122385]
本稿では,複数のLiDARのロバストかつ同時キャリブレーション,オドメトリー,マッピングを実現するシステムを提案する。
キャリブレーションとSLAMのための10列(全長4.60km)の広範囲な実験により,本手法の性能を検証した。
提案手法は,様々なマルチLiDARセットアップのための完全で堅牢なシステムであることを示す。
論文 参考訳(メタデータ) (2020-10-27T13:51:26Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。