論文の概要: TUMTraf V2X Cooperative Perception Dataset
- arxiv url: http://arxiv.org/abs/2403.01316v1
- Date: Sat, 2 Mar 2024 21:29:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 14:20:21.943618
- Title: TUMTraf V2X Cooperative Perception Dataset
- Title(参考訳): TUMTraf V2X協調知覚データセット
- Authors: Walter Zimmer, Gerhard Arya Wardana, Suren Sritharan, Xingcheng Zhou,
Rui Song, Alois C. Knoll
- Abstract要約: 協調型マルチモーダル融合モデルであるCoopDet3Dと認識データセットであるTUMTraf-V2Xを提案する。
私たちのデータセットには2,000のラベル付きポイントクラウドと5000のラベル付きイメージが5つの道端と4つのオンボードセンサーから含まれています。
当社のCoopDet3Dカメラ-LiDAR融合モデルでは,車載カメラ-LiDAR融合モデルと比較して+14.363D mAPの増加が達成されている。
- 参考スコア(独自算出の注目度): 20.907021313266128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cooperative perception offers several benefits for enhancing the capabilities
of autonomous vehicles and improving road safety. Using roadside sensors in
addition to onboard sensors increases reliability and extends the sensor range.
External sensors offer higher situational awareness for automated vehicles and
prevent occlusions. We propose CoopDet3D, a cooperative multi-modal fusion
model, and TUMTraf-V2X, a perception dataset, for the cooperative 3D object
detection and tracking task. Our dataset contains 2,000 labeled point clouds
and 5,000 labeled images from five roadside and four onboard sensors. It
includes 30k 3D boxes with track IDs and precise GPS and IMU data. We labeled
eight categories and covered occlusion scenarios with challenging driving
maneuvers, like traffic violations, near-miss events, overtaking, and U-turns.
Through multiple experiments, we show that our CoopDet3D camera-LiDAR fusion
model achieves an increase of +14.36 3D mAP compared to a vehicle camera-LiDAR
fusion model. Finally, we make our dataset, model, labeling tool, and dev-kit
publicly available on our website:
https://tum-traffic-dataset.github.io/tumtraf-v2x.
- Abstract(参考訳): 協力的な認識は、自動運転車の能力の向上と道路安全性の改善にいくつかの利点をもたらす。
路面センサーとオンボードセンサーは信頼性を高め、センサー範囲を広げる。
外部センサーは、自動車両の状況認識を高め、閉塞を防ぐ。
本稿では,協調型マルチモーダル融合モデルであるcoopdet3dと,知覚データセットであるtumtraf-v2xを提案する。
私たちのデータセットには2,000のラベル付き点雲と5000のラベル付き画像が含まれています。
トラックIDと正確なGPSとIMUデータを備えた30kの3Dボックスがある。
8つのカテゴリをラベル付けし、交通違反、近距離イベント、超過、uターンなど、運転操作に挑戦する閉塞シナリオをカバーしました。
複数の実験を通して、我々のCoopDet3Dカメラ-LiDAR融合モデルが、車載カメラ-LiDAR融合モデルと比較して+14.363D mAPの増加を達成することを示す。
最後に、データセット、モデル、ラベリングツール、dev-kitをウェブサイトで公開しています。
関連論文リスト
- V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [45.001209388616736]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きバウンディングボックスがある。
多様な研究領域を容易にするために、協調的な知覚のためのV2X-Radar-C、道路側知覚のためのV2X-Radar-I、単車車知覚のためのV2X-Radar-Vを確立する。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - HoloVIC: Large-scale Dataset and Benchmark for Multi-Sensor Holographic Intersection and Vehicle-Infrastructure Cooperative [23.293162454592544]
複数レイアウトのホログラフィック交差点を構築し,HoloVICと呼ばれる大規模多センサのホログラフィック車両・赤外線協調データセットを構築した。
私たちのデータセットには3種類のセンサー(Camera, Lidar, Fisheye)が含まれています。
論文 参考訳(メタデータ) (2024-03-05T04:08:19Z) - A9 Intersection Dataset: All You Need for Urban 3D Camera-LiDAR Roadside
Perception [20.10416681832639]
A9 Intersectionデータセットはラベル付きLiDAR点雲と同期カメラ画像で構成されている。
私たちのデータセットは4.8kの画像と57.4k以上の3Dボックスを手動でラベル付けした点雲で構成されています。
論文 参考訳(メタデータ) (2023-06-15T16:39:51Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。