論文の概要: A Large Scale Event-based Detection Dataset for Automotive
- arxiv url: http://arxiv.org/abs/2001.08499v3
- Date: Fri, 31 Jan 2020 13:35:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 12:56:16.400858
- Title: A Large Scale Event-based Detection Dataset for Automotive
- Title(参考訳): 自動車用大規模イベントベース検出データセット
- Authors: Pierre de Tournemire, Davide Nitti, Etienne Perot, Davide Migliore,
Amos Sironi
- Abstract要約: このデータセットは、39時間以上の自動車記録と304x240 ATISセンサーで構成されている。
開放された道路と非常に多様な運転シナリオがあり、都市、高速道路、郊外、田舎のシーンから、天気や照明条件まで様々である。
このサイズのラベル付きデータセットが利用できることは、オブジェクトの検出や分類といったイベントベースの視覚タスクの大きな進歩に寄与すると考えています。
- 参考スコア(独自算出の注目度): 8.230195220924234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the first very large detection dataset for event cameras. The
dataset is composed of more than 39 hours of automotive recordings acquired
with a 304x240 ATIS sensor. It contains open roads and very diverse driving
scenarios, ranging from urban, highway, suburbs and countryside scenes, as well
as different weather and illumination conditions. Manual bounding box
annotations of cars and pedestrians contained in the recordings are also
provided at a frequency between 1 and 4Hz, yielding more than 255,000 labels in
total. We believe that the availability of a labeled dataset of this size will
contribute to major advances in event-based vision tasks such as object
detection and classification. We also expect benefits in other tasks such as
optical flow, structure from motion and tracking, where for example, the large
amount of data can be leveraged by self-supervised learning methods.
- Abstract(参考訳): イベントカメラのための最初の超大規模検出データセットを紹介する。
このデータセットは、304x240 ATISセンサーで取得された39時間以上の自動車記録で構成されている。
開放された道路と非常に多様な運転シナリオがあり、都市、高速道路、郊外、田舎のシーンから、天気や照明条件まで様々である。
録音に含まれる車や歩行者の手動バウンディングボックスのアノテーションも1Hzから4Hzの周波数で提供され、合計255,000以上のラベルが得られた。
このサイズのラベル付きデータセットの可用性は、オブジェクト検出や分類といったイベントベースのビジョンタスクの大きな進歩に寄与すると考えています。
また、光学的フロー、動きからの構造、追跡といった他のタスクにもメリットが期待でき、例えば、大量のデータを自己教師付き学習手法で活用することができる。
関連論文リスト
- DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - The Interstate-24 3D Dataset: a new benchmark for 3D multi-camera
vehicle tracking [4.799822253865053]
本研究は,道路交通カメラの重なり合う都市州間高速道路に沿って記録された新しい映像データセットを提示し,交通監視状況下でのマルチカメラ3Dオブジェクト追跡を可能にする。
データは、少なくとも16台のカメラのビデオを含む3つのシーンから解放され、合計で57分である。
877,000個の3Dバウンディングボックスと対応するオブジェクトトラックレットは、各カメラの視野に対して完全に正確に注釈付けされ、各シーンごとに空間的かつ時間的に連続した車両軌跡セットに結合される。
論文 参考訳(メタデータ) (2023-08-28T18:43:33Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Traffic Scene Parsing through the TSP6K Dataset [109.69836680564616]
高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - TrafficCAM: A Versatile Dataset for Traffic Flow Segmentation [9.744937939618161]
既存のトラフィックフローデータセットには2つの大きな制限がある。
クラス数は限られており、通常は1種類の車両に限られる。
我々は、TrafficCAMと呼ばれる新しいベンチマークトラフィックフロー画像データセットを導入する。
論文 参考訳(メタデータ) (2022-11-17T16:14:38Z) - Synthehicle: Multi-Vehicle Multi-Camera Tracking in Virtual Cities [4.4855664250147465]
複数の車両の追跡とセグメンテーションのための大規模な合成データセットを複数重なり合うカメラビューと非重なり合うカメラビューで提示する。
データセットは17時間のラベル付きビデオ素材で構成され、64の異なる日、雨、夜のシーンで340台のカメラから記録されている。
論文 参考訳(メタデータ) (2022-08-30T11:36:07Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。