論文の概要: M2DGR: A Multi-sensor and Multi-scenario SLAM Dataset for Ground Robots
- arxiv url: http://arxiv.org/abs/2112.13659v1
- Date: Sun, 19 Dec 2021 12:37:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-02 09:53:15.845818
- Title: M2DGR: A Multi-sensor and Multi-scenario SLAM Dataset for Ground Robots
- Title(参考訳): m2dgr: 地上ロボットのためのマルチセンサおよびマルチスセナリオslamデータセット
- Authors: Jie Yin, Ang Li, Tao Li, Wenxian Yu, and Danping Zou
- Abstract要約: M2DGR(M2DGR)は、センサースーツを備えた地上ロボットによって収集された、新しい大規模データセットである。
データセットは、屋内環境と屋外環境の両方を含む様々なシナリオでキャプチャされた36のシーケンスから構成される。
研究コミュニティの利益のために、データセットとツールを公開します。
- 参考スコア(独自算出の注目度): 22.767094281397746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce M2DGR: a novel large-scale dataset collected by a ground robot
with a full sensor-suite including six fish-eye and one sky-pointing RGB
cameras, an infrared camera, an event camera, a Visual-Inertial Sensor
(VI-sensor), an inertial measurement unit (IMU), a LiDAR, a consumer-grade
Global Navigation Satellite System (GNSS) receiver and a GNSS-IMU navigation
system with real-time kinematic (RTK) signals. All those sensors were
well-calibrated and synchronized, and their data were recorded simultaneously.
The ground truth trajectories were obtained by the motion capture device, a
laser 3D tracker, and an RTK receiver. The dataset comprises 36 sequences
(about 1TB) captured in diverse scenarios including both indoor and outdoor
environments. We evaluate state-of-the-art SLAM algorithms on M2DGR. Results
show that existing solutions perform poorly in some scenarios. For the benefit
of the research community, we make the dataset and tools public. The webpage of
our project is https://github.com/SJTU-ViSYS/M2DGR.
- Abstract(参考訳): M2DGRは6つの魚眼カメラと1つのスカイポイントRGBカメラ、赤外線カメラ、イベントカメラ、ビジュアル慣性センサー(VIセンサー)、慣性測定ユニット(IMU)、LiDAR、コンシューマグレードのグローバルナビゲーション衛星システム(GNSS)受信機、リアルタイムキネマティック(RTK)信号付きGNSS-IMUナビゲーションシステムを含む地上ロボットによって収集された新しい大規模データセットである。
これらのセンサーはすべてよく校正され、同期され、それらのデータは同時に記録された。
地上の真理軌道は、モーションキャプチャ装置、レーザー3Dトラッカー、RTK受信機で得られた。
データセットは、屋内環境と屋外環境の両方を含む様々なシナリオでキャプチャされた36のシーケンス(約1TB)から構成される。
M2DGRにおける最先端SLAMアルゴリズムの評価を行った。
その結果、既存のソリューションはいくつかのシナリオで性能が悪いことがわかった。
研究コミュニティの利益のために、私たちはデータセットとツールを公開しています。
プロジェクトのWebページはhttps://github.com/SJTU-ViSYS/M2DGRです。
関連論文リスト
- ES-PTAM: Event-based Stereo Parallel Tracking and Mapping [11.801511288805225]
イベントカメラは、標準的なカメラの限界を克服する利点を提供する。
2つのアイデアを組み合わせたイベントベースステレオVOシステムを提案する。
実世界の5つのデータセットからシステムを評価する。
論文 参考訳(メタデータ) (2024-08-28T07:56:28Z) - M3LEO: A Multi-Modal, Multi-Label Earth Observation Dataset Integrating Interferometric SAR and Multispectral Data [1.4053129774629076]
M3LEOはマルチモーダルでマルチラベルの地球観測データセットである。
6つの地理的領域から約17M 4x4 kmのデータチップにまたがる。
論文 参考訳(メタデータ) (2024-06-06T16:30:41Z) - VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - USTC FLICAR: A Sensors Fusion Dataset of LiDAR-Inertial-Camera for
Heavy-duty Autonomous Aerial Work Robots [13.089952067224138]
本稿では,同時ローカライゼーションとマッピングの開発を目的としたUSTC FLICARデータセットを提案する。
提案したデータセットは、典型的な自律走行センシングスイートを空中シーンに拡張する。
Segment Anything Model (SAM)に基づいて,セマンティックFLICARデータセットを生成し,セマンティックセマンティックなセマンティックセマンティックアノテーションを提供する。
論文 参考訳(メタデータ) (2023-04-04T17:45:06Z) - MIPI 2022 Challenge on RGB+ToF Depth Completion: Dataset and Report [92.61915017739895]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含むMIPIの最初の課題を紹介する。
参加者にはTetrasRGBDという,高品質な合成RGB+Depthトレーニングデータ18万組と,混合ソースからの2.3万組のテストデータを含む,新たなデータセットが提供される。
最終結果は客観的指標と平均オピニオンスコア(MOS)を主観的に評価する。
論文 参考訳(メタデータ) (2022-09-15T05:31:53Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Kimera-Multi: Robust, Distributed, Dense Metric-Semantic SLAM for
Multi-Robot Systems [92.26462290867963]
Kimera-Multiは、最初のマルチロボットシステムであり、不正なインターループとイントラロボットループの閉鎖を識別し拒否することができる。
我々は、フォトリアリスティックシミュレーション、SLAMベンチマークデータセット、地上ロボットを用いて収集された屋外データセットの挑戦において、Kimera-Multiを実証した。
論文 参考訳(メタデータ) (2021-06-28T03:56:40Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - DMD: A Large-Scale Multi-Modal Driver Monitoring Dataset for Attention
and Alertness Analysis [54.198237164152786]
視覚は運転監視システム(DMS)の最も豊かで費用対効果の高い技術である
十分に大規模で包括的なデータセットの欠如は、DMS開発の進展のボトルネックとなっている。
本稿では,実運転シナリオとシミュレーション運転シナリオを含む広範囲なデータセットであるドライバモニタリングデータセット(DMD)を紹介する。
論文 参考訳(メタデータ) (2020-08-27T12:33:54Z) - JRMOT: A Real-Time 3D Multi-Object Tracker and a New Large-Scale Dataset [34.609125601292]
我々は,RGB画像と3Dポイントクラウドの情報を統合し,リアルタイムトラッキング性能を実現する新しい3DMOTシステムJRMOTを提案する。
我々の研究の一環として、新しい大規模2D+3DデータセットとベンチマークであるJRDBデータセットをリリースしました。
提案する3D MOTシステムは,一般的な2DトラッキングKITTIベンチマークにおいて,競合する手法に対する最先端性能を示す。
論文 参考訳(メタデータ) (2020-02-19T19:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。