論文の概要: Zenseact Open Dataset: A large-scale and diverse multimodal dataset for
autonomous driving
- arxiv url: http://arxiv.org/abs/2305.02008v2
- Date: Sat, 21 Oct 2023 08:55:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 12:54:11.765496
- Title: Zenseact Open Dataset: A large-scale and diverse multimodal dataset for
autonomous driving
- Title(参考訳): Zenseact Open Dataset: 自動運転のための大規模かつ多様なマルチモーダルデータセット
- Authors: Mina Alibeigi, William Ljungbergh, Adam Tonderski, Georg Hess, Adam
Lilja, Carl Lindstrom, Daria Motorniuk, Junsheng Fu, Jenny Widahl, and
Christoffer Petersson
- Abstract要約: Zenseact Open dataset (ZOD)は、ヨーロッパ各国で2年以上にわたって収集された大規模かつ多様なデータセットである。
ZODは、同等のデータセットの中で、最高範囲と解像度のセンサーを備えている。
データセットはFrames、Sequences、Drivesで構成され、データの多様性とマルチモーダル時間学習のサポートの両方を含むように設計されている。
- 参考スコア(独自算出の注目度): 3.549770828382121
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing datasets for autonomous driving (AD) often lack diversity and
long-range capabilities, focusing instead on 360{\deg} perception and temporal
reasoning. To address this gap, we introduce Zenseact Open Dataset (ZOD), a
large-scale and diverse multimodal dataset collected over two years in various
European countries, covering an area 9x that of existing datasets. ZOD boasts
the highest range and resolution sensors among comparable datasets, coupled
with detailed keyframe annotations for 2D and 3D objects (up to 245m), road
instance/semantic segmentation, traffic sign recognition, and road
classification. We believe that this unique combination will facilitate
breakthroughs in long-range perception and multi-task learning. The dataset is
composed of Frames, Sequences, and Drives, designed to encompass both data
diversity and support for spatio-temporal learning, sensor fusion,
localization, and mapping. Frames consist of 100k curated camera images with
two seconds of other supporting sensor data, while the 1473 Sequences and 29
Drives include the entire sensor suite for 20 seconds and a few minutes,
respectively. ZOD is the only large-scale AD dataset released under a
permissive license, allowing for both research and commercial use. More
information, and an extensive devkit, can be found at https://zod.zenseact.com
- Abstract(参考訳): 既存の自律運転(ad)のためのデータセットは、360{\deg}の知覚と時間的推論に重点を置きながら、多様性と長距離能力に欠けることが多い。
このギャップに対処するため、欧州各国で2年以上にわたって収集された大規模で多様なマルチモーダルデータセットであるzenseact open dataset (zod)を紹介し、既存のデータセットの9倍の範囲をカバーする。
ZODは、2Dおよび3Dオブジェクト(最大245m)の詳細なキーフレームアノテーション、ロードインスタンス/セマンティックセグメンテーション、トラフィックサイン認識、道路分類など、同等のデータセットの中で最高範囲と解像度のセンサーを備えている。
このユニークな組み合わせは、長距離認識とマルチタスク学習のブレークスルーを促進するだろうと考えています。
データセットはフレーム、シーケンス、ドライブで構成されており、データの多様性と時空間学習、センサー融合、ローカライゼーション、マッピングの両方をサポートするように設計されている。
フレームは100kのキュレートされたカメラ画像と他の2秒間のセンサーデータで構成され、1473のシーケンスと29のドライブはそれぞれ20秒と数分のセンサースイートを含んでいる。
ZODは、パーミッシブライセンスの下でリリースされた唯一の大規模ADデータセットであり、研究と商業の両方が利用可能である。
詳細な情報はhttps://zod.zenseact.comで見ることができる。
関連論文リスト
- SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - Super Sparse 3D Object Detection [48.684300007948906]
LiDARベースの3Dオブジェクト検出は、自動運転における長距離認識にますます貢献する。
高速な長距離検出を実現するため,まずフルスパース物体検出器FSDを提案する。
FSD++は、連続するフレーム間の点変化を示す残差点を生成する。
論文 参考訳(メタデータ) (2023-01-05T17:03:56Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - PandaSet: Advanced Sensor Suite Dataset for Autonomous Driving [7.331883729089782]
PandaSetは、商用ライセンスのない完全かつ高精度な自動運転車センサーキットによって生成された最初のデータセットである。
データセットには100以上のシーンが含まれており、それぞれが8秒の長さで、オブジェクト分類用の28種類のラベルとセマンティックセグメンテーションのための37種類のラベルを提供する。
論文 参考訳(メタデータ) (2021-12-23T14:52:12Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - PixSet : An Opportunity for 3D Computer Vision to Go Beyond Point Clouds
With a Full-Waveform LiDAR Dataset [0.11726720776908521]
Leddar PixSetは、自動運転研究開発のための新しい公開データセット(dataset.leddartech.com)である。
ピクセットデータセットは、高密度の都市部で記録された97のシーケンスから約29kフレームを含む。
論文 参考訳(メタデータ) (2021-02-24T01:13:17Z) - TJU-DHD: A Diverse High-Resolution Dataset for Object Detection [48.94731638729273]
大規模でリッチな多様性と高解像度のデータセットは、よりよいオブジェクト検出方法を開発する上で重要な役割を果たす。
私たちは多種多様な高解像度データセット(TJU-DHD)を構築します。
データセットには115,354枚の高解像度画像と709,330個のラベル付きオブジェクトが含まれており、スケールと外観に大きな違いがある。
論文 参考訳(メタデータ) (2020-11-18T09:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。