論文の概要: Ford Multi-AV Seasonal Dataset
- arxiv url: http://arxiv.org/abs/2003.07969v1
- Date: Tue, 17 Mar 2020 22:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 22:07:31.776692
- Title: Ford Multi-AV Seasonal Dataset
- Title(参考訳): Ford Multi-AV 季節データ
- Authors: Siddharth Agarwal, Ankit Vora, Gaurav Pandey, Wayne Williams, Helen
Kourous and James McBride
- Abstract要約: 本稿は,Fordの自動運転車が2017-18年の間に異なる日数で収集した,多エージェントの季節データセットについて述べる。
車両はミシガン州で平均66kmのルートを走行し、運転シナリオが混在していた。
動的都市環境で経験した気象・照明・建設・交通条件の季節変動について述べる。
- 参考スコア(独自算出の注目度): 1.988834651033683
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a challenging multi-agent seasonal dataset collected by a
fleet of Ford autonomous vehicles at different days and times during 2017-18.
The vehicles traversed an average route of 66 km in Michigan that included a
mix of driving scenarios such as the Detroit Airport, freeways, city-centers,
university campus and suburban neighbourhoods, etc. Each vehicle used in this
data collection is a Ford Fusion outfitted with an Applanix POS-LV GNSS system,
four HDL-32E Velodyne 3D-lidar scanners, 6 Point Grey 1.3 MP Cameras arranged
on the rooftop for 360-degree coverage and 1 Pointgrey 5 MP camera mounted
behind the windshield for the forward field of view. We present the seasonal
variation in weather, lighting, construction and traffic conditions experienced
in dynamic urban environments. This dataset can help design robust algorithms
for autonomous vehicles and multi-agent systems. Each log in the dataset is
time-stamped and contains raw data from all the sensors, calibration values,
pose trajectory, ground truth pose, and 3D maps. All data is available in
Rosbag format that can be visualized, modified and applied using the
open-source Robot Operating System (ROS). We also provide the output of
state-of-the-art reflectivity-based localization for bench-marking purposes.
The dataset can be freely downloaded at our website.
- Abstract(参考訳): 本稿では,フォードの自律走行車群が2017-18年の間,異なる日数で収集した複数エージェントの季節データを提案する。
この車両は、デトロイト空港、高速道路、都市中心部、大学キャンパス、郊外地区など、様々な運転シナリオを含む、ミシガン州で平均66kmのルートを走行した。
このデータ収集で使用される車両はフォード・フュージョンで、アパラニックス POS-LV GNSSシステム、HDL-32E ベロディネ 3D-ライダースキャナー4台、屋上に配置された6つのポイントグレイ 1.3 MPカメラ、フロント視野用フロントガラスの後ろに設置されたポイントグレイ 5 MPカメラである。
本稿では, 都市環境における気象, 照明, 建設, 交通状況の季節変動について述べる。
このデータセットは、自動運転車やマルチエージェントシステムのための堅牢なアルゴリズムの設計に役立つ。
データセットの各ログはタイムスタンプされ、すべてのセンサーの生データ、キャリブレーション値、軌道のポーズ、地上の真実のポーズ、および3Dマップが含まれている。
すべてのデータはrosbagフォーマットで利用可能であり、オープンソースのロボットオペレーティングシステム(ros)を使用して可視化、修正、適用することができる。
また,ベンチマーキングのために,最先端の反射率に基づく局所化の出力も提供する。
データセットは私たちのWebサイトで無料でダウンロードできます。
関連論文リスト
- MAN TruckScenes: A multimodal dataset for autonomous trucking in diverse conditions [0.6137109345454494]
我々は、自律トラックのための最初のマルチモーダルデータセットであるMAN TruckScenesを紹介する。
様々な環境条件の中で、20の740以上のシーンで構成されている。
Man TruckScenesは、360度カバレッジを備えた4Dレーダデータを提供する最初のデータセットである。
論文 参考訳(メタデータ) (2024-07-10T08:32:26Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - 4Seasons: A Cross-Season Dataset for Multi-Weather SLAM in Autonomous
Driving [48.588254700810474]
本稿では,自律運転における季節的・挑戦的な知覚条件をカバーする新しいデータセットを提案する。
その中には、視覚計測、グローバルな位置認識、マップベースの再位置追跡などが含まれる。
論文 参考訳(メタデータ) (2020-09-14T12:31:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。