論文の概要: TLD: A Vehicle Tail Light signal Dataset and Benchmark
- arxiv url: http://arxiv.org/abs/2409.02508v1
- Date: Wed, 4 Sep 2024 08:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-05 19:41:01.684629
- Title: TLD: A Vehicle Tail Light signal Dataset and Benchmark
- Title(参考訳): TLD:車載ライト信号データセットとベンチマーク
- Authors: Jinhao Chai, Shiyi Mu, Shugong Xu,
- Abstract要約: このデータセットは、152kのラベル付き画像フレームを2Hzの速度でサンプリングし、150万のラベルなしのフレームを全周に散らばっている。
我々は,車両検知器とテールライト分類器の2つの主要モジュールからなる2段階の車両光検出モデルを開発した。
提案手法は,車両のテールライト検出のためのベンチマークを構築し,データセット上での異常な性能を示す。
- 参考スコア(独自算出の注目度): 11.892883491115656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding other drivers' intentions is crucial for safe driving. The role of taillights in conveying these intentions is underemphasized in current autonomous driving systems. Accurately identifying taillight signals is essential for predicting vehicle behavior and preventing collisions. Open-source taillight datasets are scarce, often small and inconsistently annotated. To address this gap, we introduce a new large-scale taillight dataset called TLD. Sourced globally, our dataset covers diverse traffic scenarios. To our knowledge, TLD is the first dataset to separately annotate brake lights and turn signals in real driving scenarios. We collected 17.78 hours of driving videos from the internet. This dataset consists of 152k labeled image frames sampled at a rate of 2 Hz, along with 1.5 million unlabeled frames interspersed throughout. Additionally, we have developed a two-stage vehicle light detection model consisting of two primary modules: a vehicle detector and a taillight classifier. Initially, YOLOv10 and DeepSORT captured consecutive vehicle images over time. Subsequently, the two classifiers work simultaneously to determine the states of the brake lights and turn signals. A post-processing procedure is then used to eliminate noise caused by misidentifications and provide the taillight states of the vehicle within a given time frame. Our method shows exceptional performance on our dataset, establishing a benchmark for vehicle taillight detection. The dataset is available at https://huggingface.co/datasets/ChaiJohn/TLD/tree/main
- Abstract(参考訳): 他のドライバーの意図を理解することは安全な運転に不可欠である。
これらの意図を伝える上でのテールライトの役割は、現在の自律運転システムでは強調されていない。
正確なテールライト信号の同定は、車両の挙動の予測と衝突の防止に不可欠である。
オープンソースのテールライトデータセットは少なく、しばしば小さく、一貫性のない注釈付きである。
このギャップに対処するため、我々はTLDと呼ばれる大規模テールライトデータセットを導入しました。
グローバルにソースされた私たちのデータセットは、さまざまなトラフィックシナリオをカバーしています。
我々の知る限り、TLDは実際の運転シナリオでブレーキライトと信号を別々にアノテートする最初のデータセットである。
われわれは17.78時間分の動画をインターネットから収集した。
このデータセットは、152kのラベル付き画像フレームを2Hzの速度でサンプリングし、150万のラベルなしのフレームを全周に散らばっている。
さらに,車両検知器とテールライト分類器の2つの主要モジュールからなる2段階の車両光検出モデルを開発した。
当初、YOLOv10とDeepSORTは連続した車両画像を撮影していた。
その後、2つの分類器が同時に動作し、ブレーキライトの状態を判定し、信号を回す。
次に、後処理手順を用いて、誤識別によるノイズを除去し、所定の時間枠内で車両のテールライト状態を提供する。
提案手法は,車両のテールライト検出のためのベンチマークを構築し,データセット上での異常な性能を示す。
データセットはhttps://huggingface.co/datasets/ChaiJohn/TLD/tree/mainで利用可能である。
関連論文リスト
- Nighttime Driver Behavior Prediction Using Taillight Signal Recognition
via CNN-SVM Classifier [2.44755919161855]
本研究の目的は、人間駆動車と自律車の両方のテールライトを特定し、夜間運転行動を予測する能力を高めることである。
提案モデルでは、道路の前方のテールライトを正確に検出するカスタム検出器が組み込まれている。
夜間の限られたデータに対処するため、昼間の画像をリアルな夜のイメージに変換するために、ユニークな画素ワイズ画像処理技術を実装した。
論文 参考訳(メタデータ) (2023-10-25T15:23:33Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels [50.40632021583213]
我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
論文 参考訳(メタデータ) (2023-08-02T20:46:43Z) - Robust Detection, Association, and Localization of Vehicle Lights: A
Context-Based Cascaded CNN Approach and Evaluations [0.0]
本稿では、上流車両検出と可視光中心の近似を付与した車両光の検出方法を提案する。
地上の真理角からの平均距離誤差は4.77ピクセルであり、車両の光の約16.33%である。
我々は,このモデルをパイプラインに統合して,完全形状の車両光検出ネットワークを構築することを提案する。
論文 参考訳(メタデータ) (2023-07-27T01:20:47Z) - DualCam: A Novel Benchmark Dataset for Fine-grained Real-time Traffic
Light Detection [0.7130302992490973]
本稿では,狭角カメラと広角カメラの同期を用いた新しいベンチマーク・トラヒック・ライト・データセットを提案する。
データセットには1920$times$1080の解像度の画像が含まれ、10の異なるクラスをカバーする。
その結果,従来の1台のカメラフレームを用いた場合と比較して,速度と精度のバランスがとれることがわかった。
論文 参考訳(メタデータ) (2022-09-03T08:02:55Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Provident Vehicle Detection at Night: The PVDN Dataset [2.8730465903425877]
夜間の農村環境における346の異なるシーンのうち、59746のグレースケール注釈付き画像を含む新しいデータセットを提示する。
これらの画像では、すべての対向車、対応する光オブジェクト(例えばヘッドランプ)、およびそれぞれの光反射(例えばガードレールの光反射)がラベル付けされている。
そのために私たちは,新たな車両検出方法の研究を可能にするために,包括的な根拠データを備えたオープンソースデータセットを初めて提供します。
論文 参考訳(メタデータ) (2020-12-31T00:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。