論文の概要: aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception
- arxiv url: http://arxiv.org/abs/2211.09445v3
- Date: Fri, 22 Sep 2023 09:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 19:35:16.092642
- Title: aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception
- Title(参考訳): aiMotive Dataset:長距離知覚を用いたロバスト自動運転のためのマルチモーダルデータセット
- Authors: Tam\'as Matuszka, Iv\'an Barton, \'Ad\'am Butykai, P\'eter Hajas,
D\'avid Kiss, Domonkos Kov\'acs, S\'andor Kuns\'agi-M\'at\'e, P\'eter
Lengyel, G\'abor N\'emeth, Levente Pet\H{o}, Dezs\H{o} Ribli, D\'avid Szeghy,
Szabolcs Vajna, B\'alint Varga
- Abstract要約: このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous driving is a popular research area within the computer vision
research community. Since autonomous vehicles are highly safety-critical,
ensuring robustness is essential for real-world deployment. While several
public multimodal datasets are accessible, they mainly comprise two sensor
modalities (camera, LiDAR) which are not well suited for adverse weather. In
addition, they lack far-range annotations, making it harder to train neural
networks that are the base of a highway assistant function of an autonomous
vehicle. Therefore, we introduce a multimodal dataset for robust autonomous
driving with long-range perception. The dataset consists of 176 scenes with
synchronized and calibrated LiDAR, camera, and radar sensors covering a
360-degree field of view. The collected data was captured in highway, urban,
and suburban areas during daytime, night, and rain and is annotated with 3D
bounding boxes with consistent identifiers across frames. Furthermore, we
trained unimodal and multimodal baseline models for 3D object detection. Data
are available at \url{https://github.com/aimotive/aimotive_dataset}.
- Abstract(参考訳): 自動運転はコンピュータビジョン研究コミュニティで人気のある研究分野である。
自動運転車は安全性が極めて重要であるため、現実の展開には堅牢性を保証することが不可欠である。
いくつかの公共のマルチモーダルデータセットはアクセス可能であるが、主に悪天候に適さない2つのセンサーモード(カメラ、LiDAR)で構成されている。
さらに、長距離アノテーションが欠如しているため、自動運転車の高速道路アシスタント機能の基盤となるニューラルネットワークのトレーニングが困難になる。
そこで本稿では,長距離認識による頑健な自律運転のためのマルチモーダルデータセットを提案する。
データセットは176のシーンで構成され、同期して校正されたLiDAR、カメラ、レーダーセンサーが360度視野をカバーする。
収集したデータは、昼間、夜間、雨季に高速道路、都市、郊外で撮影され、フレーム間に一貫した識別子を持つ3D境界ボックスで注釈付けされている。
さらに,3次元物体検出のためのユニモーダルベースラインモデルとマルチモーダルベースラインモデルを訓練した。
データは \url{https://github.com/aimotive/aimotive_dataset} で入手できる。
関連論文リスト
- HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - How to Build a Curb Dataset with LiDAR Data for Autonomous Driving [11.632427050596728]
ビデオカメラと3D LiDARは、検出を抑えるために自動運転車に搭載されている。
カメラベースストレッチ検出手法は、難解な照明条件に悩まされる。
テンプレートアノテーションや効率的なテンプレートラベリングアプローチを備えたデータセットは、要求が高い。
論文 参考訳(メタデータ) (2021-10-08T08:32:37Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - The NEOLIX Open Dataset for Autonomous Driving [1.4091801425319965]
自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2020-11-27T02:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。