論文の概要: Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception
- arxiv url: http://arxiv.org/abs/2401.13853v1
- Date: Wed, 24 Jan 2024 23:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 16:12:54.304855
- Title: Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception
- Title(参考訳): データセットとベンチマーク: 自動運転車の知覚のための新しいセンサー
- Authors: Spencer Carmichael, Austin Buchan, Mani Ramanagopal, Radhika Ravi, Ram
Vasudevan, Katherine A. Skinner
- Abstract要約: 本稿では,このトピックの今後の研究を促進するために,自律走行認識のための新しいセンサーについて紹介する。
データは2つの8kmルートを繰り返すことで収集され、様々な照明条件と反対の視点を含む。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを初めて組み込んだものだ。
- 参考スコア(独自算出の注目度): 7.474695739346621
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Conventional cameras employed in autonomous vehicle (AV) systems support many
perception tasks, but are challenged by low-light or high dynamic range scenes,
adverse weather, and fast motion. Novel sensors, such as event and thermal
cameras, offer capabilities with the potential to address these scenarios, but
they remain to be fully exploited. This paper introduces the Novel Sensors for
Autonomous Vehicle Perception (NSAVP) dataset to facilitate future research on
this topic. The dataset was captured with a platform including stereo event,
thermal, monochrome, and RGB cameras as well as a high precision navigation
system providing ground truth poses. The data was collected by repeatedly
driving two ~8 km routes and includes varied lighting conditions and opposing
viewpoint perspectives. We provide benchmarking experiments on the task of
place recognition to demonstrate challenges and opportunities for novel sensors
to enhance critical AV perception tasks. To our knowledge, the NSAVP dataset is
the first to include stereo thermal cameras together with stereo event and
monochrome cameras. The dataset and supporting software suite is available at:
https://umautobots.github.io/nsavp
- Abstract(参考訳): 自律走行車(av)システムで使用される従来のカメラは多くの知覚タスクをサポートするが、低照度または高ダイナミックレンジのシーン、悪天候、高速運動に挑戦される。
イベントカメラやサーマルカメラのような新しいセンサーは、これらのシナリオに対処する能力を提供するが、それでも完全に活用される。
本稿では、このトピックに関する今後の研究を促進するために、NSAVPデータセットについて紹介する。
データセットは、ステレオイベント、サーマルカメラ、モノクロカメラ、rgbカメラ、および地上真理のポーズを提供する高精度ナビゲーションシステムを含むプラットフォームでキャプチャされた。
データは2つの8kmのルートを繰り返し運転することで収集され、様々な照明条件や対向視点を含む。
位置認識タスクのベンチマーク実験を行い、重要なAV知覚タスクを強化するための新しいセンサーの課題と機会を示す。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを含む最初のものだ。
データセットとサポートソフトウェアスイートは以下の通りである。
関連論文リスト
- ES-PTAM: Event-based Stereo Parallel Tracking and Mapping [11.801511288805225]
イベントカメラは、標準的なカメラの限界を克服する利点を提供する。
2つのアイデアを組み合わせたイベントベースステレオVOシステムを提案する。
実世界の5つのデータセットからシステムを評価する。
論文 参考訳(メタデータ) (2024-08-28T07:56:28Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Emergent Visual Sensors for Autonomous Vehicles [3.3227094421785344]
我々は、赤外線カメラ、レンジゲートカメラ、偏光カメラ、イベントカメラの4つの新しいイメージセンサーの原理を概観する。
それらの比較優位性、既存または潜在的アプリケーション、および対応するデータ処理アルゴリズムが提示される。
論文 参考訳(メタデータ) (2022-05-19T08:29:30Z) - ViViD++: Vision for Visibility Dataset [14.839450468199457]
様々な輝度条件をターゲットとした多様な視覚データフォーマットを抽出したデータセットを提案する。
代替センサーの可能性にもかかわらず、代替視覚センサーを備えたデータセットは依然として少ない。
これらの測定結果と慣性センサーと接地構造を併用して,照明不良下でのロバストな視力SLAMを開発する。
論文 参考訳(メタデータ) (2022-04-13T06:01:27Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。