論文の概要: Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions
- arxiv url: http://arxiv.org/abs/2208.01166v1
- Date: Mon, 1 Aug 2022 22:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:14:58.473197
- Title: Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions
- Title(参考訳): ithaca365: 繰り返しかつ困難な気象条件下でのデータセットと運転知覚
- Authors: Carlos A. Diaz-Ruiz (1), Youya Xia (1), Yurong You (1), Jose Nino (1),
Junan Chen (1), Josephine Monica (1), Xiangyu Chen (1), Katie Luo (1), Yan
Wang (1), Marc Emond (1), Wei-Lun Chao (2), Bharath Hariharan (1), Kilian Q.
Weinberger (1), Mark Campbell (1) ((1) Cornell University, (2) The Ohio State
University)
- Abstract要約: 我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in perception for self-driving cars have accelerated in recent years
due to the availability of large-scale datasets, typically collected at
specific locations and under nice weather conditions. Yet, to achieve the high
safety requirement, these perceptual systems must operate robustly under a wide
variety of weather conditions including snow and rain. In this paper, we
present a new dataset to enable robust autonomous driving via a novel data
collection process - data is repeatedly recorded along a 15 km route under
diverse scene (urban, highway, rural, campus), weather (snow, rain, sun), time
(day/night), and traffic conditions (pedestrians, cyclists and cars). The
dataset includes images and point clouds from cameras and LiDAR sensors, along
with high-precision GPS/INS to establish correspondence across routes. The
dataset includes road and object annotations using amodal masks to capture
partial occlusions and 3D bounding boxes. We demonstrate the uniqueness of this
dataset by analyzing the performance of baselines in amodal segmentation of
road and objects, depth estimation, and 3D object detection. The repeated
routes opens new research directions in object discovery, continual learning,
and anomaly detection. Link to Ithaca365: https://ithaca365.mae.cornell.edu/
- Abstract(参考訳): 近年、自動運転車に対する認識の進歩は、特定の場所や天気の良い環境で収集される大規模データセットの可用性によって加速している。
しかし、高い安全要件を達成するためには、これらの知覚システムは、雪や雨など幅広い気象条件下でしっかりと動作する必要がある。
本稿では,新しいデータ収集プロセスを通じてロバストな自動運転を実現するための新しいデータセットを提案する。多様なシーン(都市,高速道路,田園部,キャンパス)、天気(雪,雨,日光)、時刻(昼/夜)、および交通状況(歩行者,自転車,車)の15kmの経路に沿って,データを繰り返し記録する。
このデータセットには、カメラとLiDARセンサーの画像と点雲と、ルート間の通信を確立するための高精度GPS/INSが含まれている。
データセットには、アモーダルマスクを使用して部分閉塞と3Dバウンディングボックスをキャプチャするロードとオブジェクトのアノテーションが含まれている。
本研究では,道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能解析,深さ推定,3次元物体検出により,このデータセットの特異性を示す。
繰り返し行われる経路は、物体発見、連続学習、異常検出における新しい研究方向を開く。
Ithaca365: https://ithaca365.mae.cornell.edu/
関連論文リスト
- SemanticSpray++: A Multimodal Dataset for Autonomous Driving in Wet Surface Conditions [10.306226508237348]
SemanticSpray++データセットは、湿った表面条件下でのハイウェイのようなシナリオのカメラ、LiDAR、レーダーデータのためのラベルを提供する。
3つのセンサーのモダリティをラベル付けすることで、データセットは、異なる知覚方法のパフォーマンスを分析するための包括的なテストベッドを提供する。
論文 参考訳(メタデータ) (2024-06-14T11:46:48Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - Hindsight is 20/20: Leveraging Past Traversals to Aid 3D Perception [59.2014692323323]
小さな、遠く、あるいは非常に隠蔽された物体は、検出するためのLiDAR点雲に限られた情報があるため、特に困難である。
本稿では,過去データから文脈情報を抽出する,エンドツーエンドのトレーニング可能な新しいフレームワークを提案する。
このフレームワークは現代のほとんどの3D検出アーキテクチャと互換性があり、複数の自律走行データセットの平均精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-03-22T00:58:27Z) - How to Build a Curb Dataset with LiDAR Data for Autonomous Driving [11.632427050596728]
ビデオカメラと3D LiDARは、検出を抑えるために自動運転車に搭載されている。
カメラベースストレッチ検出手法は、難解な照明条件に悩まされる。
テンプレートアノテーションや効率的なテンプレートラベリングアプローチを備えたデータセットは、要求が高い。
論文 参考訳(メタデータ) (2021-10-08T08:32:37Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - 4Seasons: A Cross-Season Dataset for Multi-Weather SLAM in Autonomous
Driving [48.588254700810474]
本稿では,自律運転における季節的・挑戦的な知覚条件をカバーする新しいデータセットを提案する。
その中には、視覚計測、グローバルな位置認識、マップベースの再位置追跡などが含まれる。
論文 参考訳(メタデータ) (2020-09-14T12:31:20Z) - DAWN: Vehicle Detection in Adverse Weather Nature Dataset [4.09920839425892]
本研究では,DAWNと呼ばれる各種気象条件下で収集した実世界の画像からなる新しいデータセットを提案する。
このデータセットは、実際の交通環境から1000枚の画像を集め、霧、雪、雨、砂嵐の4つの天候条件に分けられる。
このデータは,車両検知システムの性能に及ぼす悪天候の影響の解明に有効である。
論文 参考訳(メタデータ) (2020-08-12T15:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。