論文の概要: Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting
- arxiv url: http://arxiv.org/abs/2301.00493v1
- Date: Mon, 2 Jan 2023 00:36:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:40:36.623772
- Title: Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting
- Title(参考訳): Argoverse 2: 自己認識と予測のための次世代データセット
- Authors: Benjamin Wilson, William Qi, Tanmay Agarwal, John Lambert, Jagjeet
Singh, Siddhesh Khandelwal, Bowen Pan, Ratnesh Kumar, Andrew Hartnett, Jhony
Kaesemodel Pontes, Deva Ramanan, Peter Carr, James Hays
- Abstract要約: Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
- 参考スコア(独自算出の注目度): 64.7364925689825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Argoverse 2 (AV2) - a collection of three datasets for
perception and forecasting research in the self-driving domain. The annotated
Sensor Dataset contains 1,000 sequences of multimodal data, encompassing
high-resolution imagery from seven ring cameras, and two stereo cameras in
addition to lidar point clouds, and 6-DOF map-aligned pose. Sequences contain
3D cuboid annotations for 26 object categories, all of which are
sufficiently-sampled to support training and evaluation of 3D perception
models. The Lidar Dataset contains 20,000 sequences of unlabeled lidar point
clouds and map-aligned pose. This dataset is the largest ever collection of
lidar sensor data and supports self-supervised learning and the emerging task
of point cloud forecasting. Finally, the Motion Forecasting Dataset contains
250,000 scenarios mined for interesting and challenging interactions between
the autonomous vehicle and other actors in each local scene. Models are tasked
with the prediction of future motion for "scored actors" in each scenario and
are provided with track histories that capture object location, heading,
velocity, and category. In all three datasets, each scenario contains its own
HD Map with 3D lane and crosswalk geometry - sourced from data captured in six
distinct cities. We believe these datasets will support new and existing
machine learning research problems in ways that existing datasets do not. All
datasets are released under the CC BY-NC-SA 4.0 license.
- Abstract(参考訳): Argoverse 2 (AV2) - 自動運転分野の研究の知覚と予測のための3つのデータセットのコレクション。
注釈付きSensor Datasetは、1000のマルチモーダルデータのシーケンスを含み、7つのリングカメラからの高解像度画像と2つのステレオカメラに加えて、ライダーポイント雲と6-DOFマップアライメントのポーズを含んでいる。
シーケンスには26のオブジェクトカテゴリに対する3次元立方体アノテーションが含まれており、これらはすべて3次元知覚モデルのトレーニングと評価を支援するのに十分なサンプルである。
Lidar Datasetには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
このデータセットはライダーセンサデータの史上最大のコレクションであり、自己教師付き学習とポイントクラウド予測の新たなタスクをサポートする。
最後に、モーション予測データセットには25万のシナリオが含まれており、各ローカルシーンにおける自動運転車と他のアクターとの興味深い、挑戦的なインタラクションのために掘り起こされている。
モデルは、各シナリオにおける「装飾されたアクター」の将来の動きを予測し、オブジェクトの位置、方向、速度、カテゴリーをキャプチャするトラック履歴を提供する。
3つのデータセットすべてにおいて、それぞれのシナリオには3dレーンと横断歩道ジオメトリを備えた独自のhdマップが含まれている。
これらのデータセットは、既存のデータセットが行なわない方法で、新しい機械学習研究の問題をサポートすると信じています。
すべてのデータセットはCC BY-NC-SA 4.0ライセンスでリリースされている。
関連論文リスト
- Every Dataset Counts: Scaling up Monocular 3D Object Detection with Joint Datasets Training [9.272389295055271]
本研究では,多種多様な3次元および2次元データセットを用いたモノクロ3次元物体検出モデルの学習パイプラインについて検討した。
提案フレームワークは,(1)様々なカメラ設定にまたがって機能するロバストなモノクル3Dモデル,(2)異なるクラスアノテーションでデータセットを適応するための選択学習戦略,(3)2Dラベルを用いた擬似3Dトレーニング手法により,2Dラベルのみを含むシーンにおける検出性能を向上させる。
論文 参考訳(メタデータ) (2023-10-02T06:17:24Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。