論文の概要: DualCam: A Novel Benchmark Dataset for Fine-grained Real-time Traffic
Light Detection
- arxiv url: http://arxiv.org/abs/2209.01357v1
- Date: Sat, 3 Sep 2022 08:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:02:08.596999
- Title: DualCam: A Novel Benchmark Dataset for Fine-grained Real-time Traffic
Light Detection
- Title(参考訳): dualcam: きめ細かなリアルタイム交通光検出のための新しいベンチマークデータセット
- Authors: Harindu Jayarathne, Tharindu Samarakoon, Hasara Koralege, Asitha
Divisekara, Ranga Rodrigo and Peshala Jayasekara
- Abstract要約: 本稿では,狭角カメラと広角カメラの同期を用いた新しいベンチマーク・トラヒック・ライト・データセットを提案する。
データセットには1920$times$1080の解像度の画像が含まれ、10の異なるクラスをカバーする。
その結果,従来の1台のカメラフレームを用いた場合と比較して,速度と精度のバランスがとれることがわかった。
- 参考スコア(独自算出の注目度): 0.7130302992490973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic light detection is essential for self-driving cars to navigate safely
in urban areas. Publicly available traffic light datasets are inadequate for
the development of algorithms for detecting distant traffic lights that provide
important navigation information. We introduce a novel benchmark traffic light
dataset captured using a synchronized pair of narrow-angle and wide-angle
cameras covering urban and semi-urban roads. We provide 1032 images for
training and 813 synchronized image pairs for testing. Additionally, we provide
synchronized video pairs for qualitative analysis. The dataset includes images
of resolution 1920$\times$1080 covering 10 different classes. Furthermore, we
propose a post-processing algorithm for combining outputs from the two cameras.
Results show that our technique can strike a balance between speed and
accuracy, compared to the conventional approach of using a single camera frame.
- Abstract(参考訳): 交通信号検出は、自動運転車が都市部を安全に移動するために不可欠である。
公に利用可能な交通灯データセットは、重要なナビゲーション情報を提供する遠方の交通灯を検出するアルゴリズムの開発には不十分である。
本研究では,都市道路と半都市道路をカバーする一対の狭角・広角カメラを用いた,新しいベンチマークトラヒックライトデータセットを提案する。
トレーニング用の1032イメージとテスト用の813の同期イメージペアを提供する。
さらに,定性解析のための同期ビデオペアも提供する。
データセットには1920$\times$1080の解像度の画像が含まれ、10の異なるクラスをカバーする。
さらに,2台のカメラからの出力を合成する後処理アルゴリズムを提案する。
その結果,従来の1つのカメラフレームを用いた手法に比べ,速度と精度のバランスをとることができた。
関連論文リスト
- XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - Driver Attention Tracking and Analysis [17.536550982093143]
車両のフロントガラスとダッシュボードに装着された通常の2台のカメラを用いて、運転者の視線を推定する新しい手法を提案する。
これは、未知の深さの3Dシーンを持つ交通環境のダイナミクスのため、難しい問題である。
本研究では,シーンの画像と運転者の顔の画像とを同時に解析する新しい畳み込みネットワークを開発する。
論文 参考訳(メタデータ) (2024-04-10T16:01:37Z) - The Interstate-24 3D Dataset: a new benchmark for 3D multi-camera
vehicle tracking [4.799822253865053]
本研究は,道路交通カメラの重なり合う都市州間高速道路に沿って記録された新しい映像データセットを提示し,交通監視状況下でのマルチカメラ3Dオブジェクト追跡を可能にする。
データは、少なくとも16台のカメラのビデオを含む3つのシーンから解放され、合計で57分である。
877,000個の3Dバウンディングボックスと対応するオブジェクトトラックレットは、各カメラの視野に対して完全に正確に注釈付けされ、各シーンごとに空間的かつ時間的に連続した車両軌跡セットに結合される。
論文 参考訳(メタデータ) (2023-08-28T18:43:33Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Towards view-invariant vehicle speed detection from driving simulator
images [0.31498833540989407]
複雑な3D-CNNアーキテクチャが単一のモデルを用いて暗黙的にビュー不変速度を学習できるかどうかという問題に対処する。
結果は、複数のビューのデータを持つ単一のモデルが、カメラ固有のモデルよりも精度が高いことを示しているため、非常に有望である。
論文 参考訳(メタデータ) (2022-06-01T09:14:45Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Towards Real-time Traffic Sign and Traffic Light Detection on Embedded
Systems [0.6143225301480709]
本稿では,交通標識や交通信号検出に固有の課題に対処する,シンプルなディープラーニングに基づくエンドツーエンド検出フレームワークを提案する。
システム全体では毎秒63フレームの高速な推論速度を実現し,リアルタイムに実行可能であることを示す。
CeyRoは、スリランカにおける最初の大規模交通標識と交通信号検出データセットである。
論文 参考訳(メタデータ) (2022-05-05T03:46:19Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Data-driven vehicle speed detection from synthetic driving simulator
images [0.440401067183266]
運転シミュレータから生成された合成画像を用いて車両の速度検出について検討する。
複数の速度、車両の種類や色、照明や気象条件に応じた可変性を持つ数千の画像を生成します。
CNN-GRUや3D-CNNなど,画像のシーケンスを出力速度(回帰)にマッピングする2つのアプローチについて検討した。
論文 参考訳(メタデータ) (2021-04-20T11:26:13Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。