論文の概要: EvTTC: An Event Camera Dataset for Time-to-Collision Estimation
- arxiv url: http://arxiv.org/abs/2412.05053v1
- Date: Fri, 06 Dec 2024 14:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:55:23.874735
- Title: EvTTC: An Event Camera Dataset for Time-to-Collision Estimation
- Title(参考訳): EvTTC: 時間対衝突推定のためのイベントカメラデータセット
- Authors: Kaizhen Sun, Jinghang Li, Kuan Dai, Bangyan Liao, Wei Xiong, Yi Zhou,
- Abstract要約: EvTTCは、高速シナリオ下でのTTCタスクに焦点を当てた最初のマルチセンサーデータセットである。
実験検証とデータ拡張のための小型TTCテストベッドを提供する。
テストベッドのすべてのデータと設計はオープンソースであり、ビジョンベースのTTC技術の開発を促進するベンチマークとして機能する。
- 参考スコア(独自算出の注目度): 6.473550067178183
- License:
- Abstract: Time-to-Collision (TTC) estimation lies in the core of the forward collision warning (FCW) functionality, which is key to all Automatic Emergency Braking (AEB) systems. Although the success of solutions using frame-based cameras (e.g., Mobileye's solutions) has been witnessed in normal situations, some extreme cases, such as the sudden variation in the relative speed of leading vehicles and the sudden appearance of pedestrians, still pose significant risks that cannot be handled. This is due to the inherent imaging principles of frame-based cameras, where the time interval between adjacent exposures introduces considerable system latency to AEB. Event cameras, as a novel bio-inspired sensor, offer ultra-high temporal resolution and can asynchronously report brightness changes at the microsecond level. To explore the potential of event cameras in the above-mentioned challenging cases, we propose EvTTC, which is, to the best of our knowledge, the first multi-sensor dataset focusing on TTC tasks under high-relative-speed scenarios. EvTTC consists of data collected using standard cameras and event cameras, covering various potential collision scenarios in daily driving and involving multiple collision objects. Additionally, LiDAR and GNSS/INS measurements are provided for the calculation of ground-truth TTC. Considering the high cost of testing TTC algorithms on full-scale mobile platforms, we also provide a small-scale TTC testbed for experimental validation and data augmentation. All the data and the design of the testbed are open sourced, and they can serve as a benchmark that will facilitate the development of vision-based TTC techniques.
- Abstract(参考訳): TTC(Time-to-Collision)推定は、自動緊急ブレーキ(AEB)システムにおいて重要な、前方衝突警告(FCW)機能の中核にある。
フレームベースのカメラ(例えばMobileyeのソリューション)を用いたソリューションの成功は、通常の状況では見られたが、車両の相対速度の急激な変化や歩行者の突然の出現といった極端なケースは、処理できない重大なリスクを伴っている。
これはフレームベースのカメラの固有の画像原理によるものであり、近接露光間の時間間隔はAEBにかなりのシステム遅延をもたらす。
イベントカメラは、バイオインスパイアされた新しいセンサーとして、超高時間分解能を提供し、マイクロ秒レベルでの明るさ変化を非同期に報告することができる。
上記のような課題におけるイベントカメラの可能性を探るため,高速シナリオ下でのTTCタスクに着目した最初のマルチセンサデータセットであるEvTTCを提案する。
EvTTCは、標準的なカメラとイベントカメラを使用して収集されたデータで構成され、日々の運転や複数の衝突物体を含む様々な衝突シナリオをカバーしている。
また, 地絡TTCの計算には, LiDAR と GNSS/INS の測定が用いられる。
実際のモバイルプラットフォーム上でのTTCアルゴリズムの高コストテストを考えると、実験検証とデータ拡張のための小規模なTTCテストベッドも提供します。
テストベッドのすべてのデータと設計はオープンソースであり、ビジョンベースのTTC技術の開発を促進するベンチマークとして機能する。
関連論文リスト
- CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Neuromorphic Seatbelt State Detection for In-Cabin Monitoring with Event
Cameras [0.932065750652415]
本研究は,シートベルト状態検出を含むイベントベースDMS技術を拡張するための概念実証を提供する。
二つの分類課題において, 実検体と実検体でF1スコアが0.989, 0.944と同定された。
論文 参考訳(メタデータ) (2023-08-15T14:27:46Z) - FEDORA: Flying Event Dataset fOr Reactive behAvior [9.470870778715689]
イベントベースのセンサーは、高速な動きを捉えるための標準フレームベースのカメラに代わる低レイテンシと低エネルギーの代替として登場した。
Flying Eventデータセット fOr Reactive behAviour (FEDORA) - 知覚タスクのための完全に合成されたデータセット。
論文 参考訳(メタデータ) (2023-05-22T22:59:05Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z) - Binary TTC: A Temporal Geofence for Autonomous Navigation [85.3581740999893]
接触時間は、シーン内のオブジェクトの深さ、速度、および加速よりも潜在的に有益です。
この課題に対処するために、TTCをより単純でバイナリな分類によって推定する。
私達の方法は6.4 msの一時的なgeofenceを提供します--既存の方法より25倍以上速く。
論文 参考訳(メタデータ) (2021-01-12T22:05:21Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。