論文の概要: A9 Intersection Dataset: All You Need for Urban 3D Camera-LiDAR Roadside
Perception
- arxiv url: http://arxiv.org/abs/2306.09266v1
- Date: Thu, 15 Jun 2023 16:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 13:45:57.450589
- Title: A9 Intersection Dataset: All You Need for Urban 3D Camera-LiDAR Roadside
Perception
- Title(参考訳): A9インターセクションのデータセット:都市部の3DカメラとLiDARの道路側面の認識に必要なもの
- Authors: Walter Zimmer, Christian Cre{\ss}, Huu Tung Nguyen, Alois C. Knoll
- Abstract要約: A9 Intersectionデータセットはラベル付きLiDAR点雲と同期カメラ画像で構成されている。
私たちのデータセットは4.8kの画像と57.4k以上の3Dボックスを手動でラベル付けした点雲で構成されています。
- 参考スコア(独自算出の注目度): 20.10416681832639
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intelligent Transportation Systems (ITS) allow a drastic expansion of the
visibility range and decrease occlusions for autonomous driving. To obtain
accurate detections, detailed labeled sensor data for training is required.
Unfortunately, high-quality 3D labels of LiDAR point clouds from the
infrastructure perspective of an intersection are still rare. Therefore, we
provide the A9 Intersection Dataset, which consists of labeled LiDAR point
clouds and synchronized camera images. Here, we recorded the sensor output from
two roadside cameras and LiDARs mounted on intersection gantry bridges. The
point clouds were labeled in 3D by experienced annotators. Furthermore, we
provide calibration data between all sensors, which allow the projection of the
3D labels into the camera images and an accurate data fusion. Our dataset
consists of 4.8k images and point clouds with more than 57.4k manually labeled
3D boxes. With ten object classes, it has a high diversity of road users in
complex driving maneuvers, such as left and right turns, overtaking, and
U-turns. In experiments, we provided multiple baselines for the perception
tasks. Overall, our dataset is a valuable contribution to the scientific
community to perform complex 3D camera-LiDAR roadside perception tasks. Find
data, code, and more information at https://a9-dataset.com.
- Abstract(参考訳): インテリジェントトランスポーテーションシステム(ITS)は、視界範囲を大幅に拡大し、自動運転の閉塞を減らす。
正確な検出を得るためには、訓練のための詳細なラベル付きセンサデータが必要である。
残念ながら、交差するインフラストラクチャの観点から見ると、LiDARポイントクラウドの高品質な3Dラベルは依然として稀である。
したがって、ラベル付きlidar点雲と同期カメラ画像からなるa9交差点データセットを提供する。
ここでは,交差点ガントリー橋に設置した2台の道路カメラとLiDARのセンサ出力を記録した。
ポイントクラウドは経験豊富なアノテータによって3Dでラベル付けされた。
さらに,全センサ間のキャリブレーションデータを提供し,カメラ画像への3dラベルの投影と正確なデータ融合を可能にした。
私たちのデータセットは4.8kの画像と57.4k以上の3Dボックスを手動でラベル付けした点雲で構成されています。
10のオブジェクトクラスでは、左折、右折、超越、uターンといった複雑な運転操作において、道路利用者の多様性が高い。
実験では,知覚タスクのベースラインを複数提供した。
全体として、我々のデータセットは複雑な3Dカメラ-LiDAR路面認識タスクを実行するための科学コミュニティにとって貴重な貢献である。
data, code, and more information at https://a9-dataset.com.com を参照。
関連論文リスト
- Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - TUMTraf V2X Cooperative Perception Dataset [20.907021313266128]
協調型マルチモーダル融合モデルであるCoopDet3Dと認識データセットであるTUMTraf-V2Xを提案する。
私たちのデータセットには2,000のラベル付きポイントクラウドと5000のラベル付きイメージが5つの道端と4つのオンボードセンサーから含まれています。
当社のCoopDet3Dカメラ-LiDAR融合モデルでは,車載カメラ-LiDAR融合モデルと比較して+14.363D mAPの増加が達成されている。
論文 参考訳(メタデータ) (2024-03-02T21:29:04Z) - InfraDet3D: Multi-Modal 3D Object Detection based on Roadside
Infrastructure Camera and LiDAR Sensors [23.058209168505247]
InfraDet3Dは道路インフラストラクチャセンサーのためのマルチモーダル3Dオブジェクト検出器である。
初期核融合により2つのLiDARを融合し、さらに単眼カメラからの検知を組み込んでロバスト性を高め、小さな物体を検出する。
知覚フレームワークは、ミュンヘンのA9テストストレッチ(A9 Test Stretch)の一部である現実世界の交差点に展開されている。
論文 参考訳(メタデータ) (2023-04-29T17:59:55Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Pedestrian Detection in 3D Point Clouds using Deep Neural Networks [2.6763498831034034]
密集した3dポイントクラウド内の歩行者を検出するためのpointnet++アーキテクチャを提案する。
目的は、歩行者検出システムにおける幾何学的情報のみの潜在的な貢献を検討することである。
また,rgb画像から歩行者および非ペデストリアンラベルを3dドメインに転送するセミオートマチックラベルシステムを提案する。
論文 参考訳(メタデータ) (2021-05-03T20:12:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。