論文の概要: A2D2: Audi Autonomous Driving Dataset
- arxiv url: http://arxiv.org/abs/2004.06320v1
- Date: Tue, 14 Apr 2020 06:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 09:22:26.788936
- Title: A2D2: Audi Autonomous Driving Dataset
- Title(参考訳): A2D2:アウディ自動運転データセット
- Authors: Jakob Geyer, Yohannes Kassahun, Mentar Mahmudi, Xavier Ricou, Rupesh
Durgesh, Andrew S. Chung, Lorenz Hauswald, Viet Hoang Pham, Maximilian
M\"uhlegg, Sebastian Dorn, Tiffany Fernandez, Martin J\"anicke, Sudesh
Mirashi, Chiragkumar Savani, Martin Sturm, Oleksandr Vorobiov, Martin Oelker,
Sebastian Garreis, Peter Schuberth
- Abstract要約: 我々はアウディ自律運転データセット(A2D2)をリリースする。
我々のデータセットは,3次元境界ボックス,セマンティックセグメンテーション,インスタンスセグメンテーション,自動車バスから抽出したデータとともに,同時に記録された画像と3次元点雲で構成されている。
A2D2はCC BY-ND 4.0ライセンスの下で利用可能であり、商用使用はライセンスの条件に従うことができる。
- 参考スコア(独自算出の注目度): 13.588365525683647
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Research in machine learning, mobile robotics, and autonomous driving is
accelerated by the availability of high quality annotated data. To this end, we
release the Audi Autonomous Driving Dataset (A2D2). Our dataset consists of
simultaneously recorded images and 3D point clouds, together with 3D bounding
boxes, semantic segmentation, instance segmentation, and data extracted from
the automotive bus. Our sensor suite consists of six cameras and five LiDAR
units, providing full 360 degree coverage. The recorded data is time
synchronized and mutually registered. Annotations are for non-sequential
frames: 41,277 frames with semantic segmentation image and point cloud labels,
of which 12,497 frames also have 3D bounding box annotations for objects within
the field of view of the front camera. In addition, we provide 392,556
sequential frames of unannotated sensor data for recordings in three cities in
the south of Germany. These sequences contain several loops. Faces and vehicle
number plates are blurred due to GDPR legislation and to preserve anonymity.
A2D2 is made available under the CC BY-ND 4.0 license, permitting commercial
use subject to the terms of the license. Data and further information are
available at http://www.a2d2.audi.
- Abstract(参考訳): 機械学習、モバイルロボティクス、自動運転の研究は、高品質な注釈付きデータの提供によって加速される。
この目的のために、Audi Autonomous Driving Dataset (A2D2) をリリースする。
我々のデータセットは,3次元境界ボックス,セマンティックセグメンテーション,インスタンスセグメンテーション,自動車バスから抽出したデータとともに,同時に記録された画像と3次元点雲で構成されている。
センサースイートは6台のカメラと5台のLiDARユニットで構成されており、360度をカバーしています。
記録されたデータは同期して相互に登録される。
41,277フレームにはセマンティックセグメンテーションイメージとポイントクラウドラベルがあり、そのうち12,497フレームにはフロントカメラの視野内のオブジェクトに対する3Dバウンディングボックスアノテーションがある。
さらに,ドイツ南部3都市における無記名センサデータの連続フレームを392,556枚提供した。
これらの配列はいくつかのループを含む。
GDPR法と匿名性を維持するため、顔と車両ナンバープレートはぼやけている。
A2D2はCC BY-ND 4.0ライセンスの下で利用可能であり、商用使用はライセンスの条件に従うことができる。
データとさらなる情報はhttp://www.a2d2.audi.comで入手できる。
関連論文リスト
- Zenseact Open Dataset: A large-scale and diverse multimodal dataset for
autonomous driving [3.549770828382121]
Zenseact Open dataset (ZOD)は、ヨーロッパ各国で2年以上にわたって収集された大規模かつ多様なデータセットである。
ZODは、同等のデータセットの中で、最高範囲と解像度のセンサーを備えている。
データセットはFrames、Sequences、Drivesで構成され、データの多様性とマルチモーダル時間学習のサポートの両方を含むように設計されている。
論文 参考訳(メタデータ) (2023-05-03T09:59:18Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - Synthehicle: Multi-Vehicle Multi-Camera Tracking in Virtual Cities [4.4855664250147465]
複数の車両の追跡とセグメンテーションのための大規模な合成データセットを複数重なり合うカメラビューと非重なり合うカメラビューで提示する。
データセットは17時間のラベル付きビデオ素材で構成され、64の異なる日、雨、夜のシーンで340台のカメラから記録されている。
論文 参考訳(メタデータ) (2022-08-30T11:36:07Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。