論文の概要: MAN TruckScenes: A multimodal dataset for autonomous trucking in diverse conditions
- arxiv url: http://arxiv.org/abs/2407.07462v1
- Date: Wed, 10 Jul 2024 08:32:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 17:21:35.021996
- Title: MAN TruckScenes: A multimodal dataset for autonomous trucking in diverse conditions
- Title(参考訳): MAN TruckScenes: 多様な状況下での自律トラックのためのマルチモーダルデータセット
- Authors: Felix Fent, Fabian Kuttenreich, Florian Ruch, Farija Rizwin, Stefan Juergens, Lorenz Lechermann, Christian Nissler, Andrea Perl, Ulrich Voll, Min Yan, Markus Lienkamp,
- Abstract要約: 我々は、自律トラックのための最初のマルチモーダルデータセットであるMAN TruckScenesを紹介する。
様々な環境条件の中で、20秒の740以上のシーンで構成されている。
Man TruckScenesは、360度カバレッジを備えた4Dレーダデータを提供する最初のデータセットである。
- 参考スコア(独自算出の注目度): 0.6137109345454494
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous trucking is a promising technology that can greatly impact modern logistics and the environment. Ensuring its safety on public roads is one of the main duties that requires an accurate perception of the environment. To achieve this, machine learning methods rely on large datasets, but to this day, no such datasets are available for autonomous trucks. In this work, we present MAN TruckScenes, the first multimodal dataset for autonomous trucking. MAN TruckScenes allows the research community to come into contact with truck-specific challenges, such as trailer occlusions, novel sensor perspectives, and terminal environments for the first time. It comprises more than 740 scenes of 20 s each within a multitude of different environmental conditions. The sensor set includes 4 cameras, 6 lidar, 6 radar sensors, 2 IMUs, and a high-precision GNSS. The dataset's 3D bounding boxes were manually annotated and carefully reviewed to achieve a high quality standard. Bounding boxes are available for 27 object classes, 15 attributes, and a range of more than 230 m. The scenes are tagged according to 34 distinct scene tags, and all objects are tracked throughout the scene to promote a wide range of applications. Additionally, MAN TruckScenes is the first dataset to provide 4D radar data with 360{\deg} coverage and is thereby the largest radar dataset with annotated 3D bounding boxes. Finally, we provide extensive dataset analysis and baseline results. The dataset, development kit and more are available online.
- Abstract(参考訳): 自動運転トラックは、現代の物流と環境に大きな影響を与える有望な技術である。
公道での安全確保は、環境の正確な認識を必要とする主要な任務の1つである。
これを実現するために、機械学習の手法は大規模なデータセットに依存しているが、今日では、そのようなデータセットは自律トラックでは利用できない。
本研究では、自律トラックのための最初のマルチモーダルデータセットであるMAN TruckScenesを紹介する。
MAN TruckScenesは、トレーラーの閉塞、新しいセンサーの視点、ターミナル環境など、トラック固有の課題に初めて触れることを可能にする。
様々な環境条件の中で、20秒の740以上のシーンで構成されている。
センサーセットには4台のカメラ、6台のライダー、6台のレーダーセンサー、2台のIMU、そして高精度のGNSSが含まれている。
データセットの3Dバウンディングボックスは、手動で注釈付けされ、注意深くレビューされ、高品質な標準が達成された。
境界ボックスは27のオブジェクトクラス、15の属性、230m以上の範囲で利用できる。
シーンは34の異なるシーンタグに従ってタグ付けされ、すべてのオブジェクトがシーン全体で追跡され、広範囲のアプリケーションを促進する。
さらにMAN TruckScenesは,360{\deg}カバレッジを備えた4Dレーダデータを提供する最初のデータセットであり,注釈付き3Dバウンディングボックスを備えた最大のレーダデータセットである。
最後に、広範なデータセット分析とベースライン結果を提供する。
データセットや開発キットなどはオンラインで公開されている。
関連論文リスト
- TUMTraf V2X Cooperative Perception Dataset [20.907021313266128]
協調型マルチモーダル融合モデルであるCoopDet3Dと認識データセットであるTUMTraf-V2Xを提案する。
私たちのデータセットには2,000のラベル付きポイントクラウドと5000のラベル付きイメージが5つの道端と4つのオンボードセンサーから含まれています。
当社のCoopDet3Dカメラ-LiDAR融合モデルでは,車載カメラ-LiDAR融合モデルと比較して+14.363D mAPの増加が達成されている。
論文 参考訳(メタデータ) (2024-03-02T21:29:04Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - Large Scale Real-World Multi-Person Tracking [68.27438015329807]
本稿では,新しい大規模多人数追跡データセットであるtexttPersonPath22を提案する。
MOT17、HiEve、MOT20などの高品質なマルチオブジェクト追跡データセットよりも桁違いに大きい。
論文 参考訳(メタデータ) (2022-11-03T23:03:13Z) - PandaSet: Advanced Sensor Suite Dataset for Autonomous Driving [7.331883729089782]
PandaSetは、商用ライセンスのない完全かつ高精度な自動運転車センサーキットによって生成された最初のデータセットである。
データセットには100以上のシーンが含まれており、それぞれが8秒の長さで、オブジェクト分類用の28種類のラベルとセマンティックセグメンテーションのための37種類のラベルを提供する。
論文 参考訳(メタデータ) (2021-12-23T14:52:12Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - DMD: A Large-Scale Multi-Modal Driver Monitoring Dataset for Attention
and Alertness Analysis [54.198237164152786]
視覚は運転監視システム(DMS)の最も豊かで費用対効果の高い技術である
十分に大規模で包括的なデータセットの欠如は、DMS開発の進展のボトルネックとなっている。
本稿では,実運転シナリオとシミュレーション運転シナリオを含む広範囲なデータセットであるドライバモニタリングデータセット(DMD)を紹介する。
論文 参考訳(メタデータ) (2020-08-27T12:33:54Z) - A Large Scale Event-based Detection Dataset for Automotive [8.230195220924234]
このデータセットは、39時間以上の自動車記録と304x240 ATISセンサーで構成されている。
開放された道路と非常に多様な運転シナリオがあり、都市、高速道路、郊外、田舎のシーンから、天気や照明条件まで様々である。
このサイズのラベル付きデータセットが利用できることは、オブジェクトの検出や分類といったイベントベースの視覚タスクの大きな進歩に寄与すると考えています。
論文 参考訳(メタデータ) (2020-01-23T13:40:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。