論文の概要: DSEC: A Stereo Event Camera Dataset for Driving Scenarios
- arxiv url: http://arxiv.org/abs/2103.06011v1
- Date: Wed, 10 Mar 2021 12:10:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 10:38:27.695457
- Title: DSEC: A Stereo Event Camera Dataset for Driving Scenarios
- Title(参考訳): DSEC:シナリオを駆動するためのステレオイベントカメラデータセット
- Authors: Mathias Gehrig, Willem Aarents, Daniel Gehrig, Davide Scaramuzza
- Abstract要約: 本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
- 参考スコア(独自算出の注目度): 55.79329250951028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Once an academic venture, autonomous driving has received unparalleled
corporate funding in the last decade. Still, the operating conditions of
current autonomous cars are mostly restricted to ideal scenarios. This means
that driving in challenging illumination conditions such as night, sunrise, and
sunset remains an open problem. In these cases, standard cameras are being
pushed to their limits in terms of low light and high dynamic range
performance. To address these challenges, we propose, DSEC, a new dataset that
contains such demanding illumination conditions and provides a rich set of
sensory data. DSEC offers data from a wide-baseline stereo setup of two color
frame cameras and two high-resolution monochrome event cameras. In addition, we
collect lidar data and RTK GPS measurements, both hardware synchronized with
all camera data. One of the distinctive features of this dataset is the
inclusion of high-resolution event cameras. Event cameras have received
increasing attention for their high temporal resolution and high dynamic range
performance. However, due to their novelty, event camera datasets in driving
scenarios are rare. This work presents the first high-resolution, large-scale
stereo dataset with event cameras. The dataset contains 53 sequences collected
by driving in a variety of illumination conditions and provides ground truth
disparity for the development and evaluation of event-based stereo algorithms.
- Abstract(参考訳): 一度学術ベンチャーになった自動運転は、過去10年間で比類のない企業資金を得ています。
しかし、現在の自動運転車の運転条件は理想的なシナリオに限られている。
これは、夜間、日の出、日没といった困難な照明条件での運転が未解決の問題であることを意味する。
これらのケースでは、標準カメラは低照度と高ダイナミックレンジ性能の点で限界まで押し上げられている。
これらの課題を解決するために、このような厳しい照明条件を含み、豊富な感覚データを提供する新しいデータセットであるDSECを提案します。
DSECは、2つのカラーフレームカメラと2つの高解像度モノクロームイベントカメラの広いベースラインステレオ設定からデータを提供する。
さらに、ライダーデータとRTK GPS測定値を収集し、両ハードウェアはすべてのカメラデータと同期する。
このデータセットの特徴の1つは、高解像度のイベントカメラを含むことである。
イベントカメラは、高い時間分解能と高いダイナミックレンジ性能で注目を集めています。
しかし、その斬新さから、運転シナリオにおけるイベントカメラデータセットは稀である。
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
このデータセットは、様々な照明条件で駆動することによって収集された53のシーケンスを含み、イベントベースのステレオアルゴリズムの開発と評価のための真実の相違を提供する。
関連論文リスト
- SID: Stereo Image Dataset for Autonomous Driving in Adverse Conditions [1.0805335573008565]
我々は,大規模なステレオ画像データセットであるStereo Image dataset (SID)を紹介した。
データセットには、天気状況、日時、場所、道路状況のシーケンスレベルのアノテーションと、カメラレンズの汚れの例が含まれている。
これらのアルゴリズムは、レンズの汚れのような困難な状況に対処する場合でも、様々な天候や照明条件をまたいで一貫した信頼性の高い操作をサポートする。
論文 参考訳(メタデータ) (2024-07-06T00:58:31Z) - Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception [7.474695739346621]
本稿では,このトピックの今後の研究を促進するために,自律走行認識のための新しいセンサーについて紹介する。
データは2つの8kmルートを繰り返すことで収集され、様々な照明条件と反対の視点を含む。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを初めて組み込んだものだ。
論文 参考訳(メタデータ) (2024-01-24T23:25:23Z) - MUSES: The Multi-Sensor Semantic Perception Dataset for Driving under Uncertainty [46.369657697892634]
MUSES(MUlti-Sensor Semantic 知覚データセット)を導入する。
データセットはフレームカメラ、ライダー、レーダー、イベントカメラ、IMU/GNSSセンサーを統合する。
MUSESは、様々な視覚条件下でモデルを評価するのに、トレーニングと挑戦の両方に効果的であることを証明している。
論文 参考訳(メタデータ) (2024-01-23T13:43:17Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - VECtor: A Versatile Event-Centric Benchmark for Multi-Sensor SLAM [31.779462222706346]
イベントカメラは、高ダイナミックな状況や難易度照明の状況において、通常のカメラを補完する強い可能性を秘めている。
私たちのコントリビューションは、マルチセンサーセットアップでキャプチャされたベンチマークデータセットの最初の完全なセットです。
個々のシーケンスには、小規模と大規模の両方の環境が含まれており、ダイナミックビジョンセンサーがターゲットとする特定の課題をカバーする。
論文 参考訳(メタデータ) (2022-07-04T13:37:26Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Are High-Resolution Event Cameras Really Needed? [62.70541164894224]
低照度条件や高速環境では、低解像度カメラは高解像度カメラより優れ、帯域幅は大幅に小さくなる。
この主張は,高解像度のイベントカメラが画素当たりのイベントレートが高いことを示す実証的証拠と理論的証拠の両方を提示する。
多くの場合、高解像度のイベントカメラは、これらの条件下では低解像度のセンサーに比べてタスク性能が低い。
論文 参考訳(メタデータ) (2022-03-28T12:06:20Z) - E$^2$(GO)MOTION: Motion Augmented Event Stream for Egocentric Action
Recognition [21.199869051111367]
イベントカメラは「イベント」の形でピクセルレベルの強度変化を捉えます
N-EPIC-Kitchensは、大規模なEPIC-Kitchensデータセットの最初のイベントベースのカメラ拡張である。
イベントデータは、RGBと光フローに匹敵するパフォーマンスを提供するが、デプロイ時に追加のフロー計算を行わないことを示す。
論文 参考訳(メタデータ) (2021-12-07T09:43:08Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。