論文の概要: A 360-degree Multi-camera System for Blue Emergency Light Detection Using Color Attention RT-DETR and the ABLDataset
- arxiv url: http://arxiv.org/abs/2603.05058v1
- Date: Thu, 05 Mar 2026 11:12:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.199177
- Title: A 360-degree Multi-camera System for Blue Emergency Light Detection Using Color Attention RT-DETR and the ABLDataset
- Title(参考訳): カラーアテンションRT-DETRとABLデータセットを用いたブルー緊急光検出用360度マルチカメラシステム
- Authors: Francisco Vacalebri-Lloret, Lucas Banchero, Jose J. Lopez, Jose M. Mossi,
- Abstract要約: 本研究では,緊急車両の青信号検出システムについて述べる。
このシステムは4台の魚眼カメラを搭載しており、それぞれ180度の水平視野を備えており、車両の側面に取り付けられている。
YOLO(v5、v8、v10)、RetinaNet、Faster R-CNN、RT-DETRを含む主要なディープニューラルネットワークアルゴリズムの比較分析を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents an advanced system for detecting blue lights on emergency vehicles, developed using ABLDataset, a curated dataset that includes images of European emergency vehicles under various climatic and geographic conditions. The system employs a configuration of four fisheye cameras, each with a 180-degree horizontal field of view, mounted on the sides of the vehicle. A calibration process enables the azimuthal localization of the detections. Additionally, a comparative analysis of major deep neural network algorithms was conducted, including YOLO (v5, v8, and v10), RetinaNet, Faster R-CNN, and RT-DETR. RT-DETR was selected as the base model and enhanced through the incorporation of a color attention block, achieving an accuracy of 94.7 percent and a recall of 94.1 percent on the test set, with field test detections reaching up to 70 meters. Furthermore, the system estimates the approach angle of the emergency vehicle relative to the center of the car using geometric transformations. Designed for integration into a multimodal system that combines visual and acoustic data, this system has demonstrated high efficiency, offering a promising approach to enhancing Advanced Driver Assistance Systems (ADAS) and road safety.
- Abstract(参考訳): ABLDatasetは, 気象条件や地理的条件の異なる欧州の緊急車両の画像を含む, 訓練済みのデータセットである。
このシステムは4台の魚眼カメラを搭載しており、それぞれ180度の水平視野を備えており、車両の側面に取り付けられている。
キャリブレーションプロセスは、検出の方位位置化を可能にする。
さらに、YOLO(v5、v8、v10)、RetinaNet、Faster R-CNN、RT-DETRを含む主要なディープニューラルネットワークアルゴリズムの比較分析を行った。
RT-DETRはベースモデルとして選択され、カラーアテンションブロックが組み込まれ、94.7%の精度と94.1%のリコールを実現した。
さらに, 車両の中心に対する緊急車両の接近角度を幾何学的変換を用いて推定する。
視覚と音響データを組み合わせたマルチモーダルシステムに統合するために設計されたこのシステムは、高度運転支援システム(ADAS)と道路安全を向上するための有望なアプローチを提供する、高い効率性を示した。
関連論文リスト
- Enhanced Drift-Aware Computer Vision Architecture for Autonomous Driving [0.0]
本研究では,道路環境から数千もの合成画像データを用いて学習し,未知の漂流環境におけるロバスト性を向上させるハイブリッドコンピュータビジョンアーキテクチャを提案する。
このシステムは,ドリフト拡大道路画像を用いた場合,連続して機能し,検出精度を90%以上向上した。
論文 参考訳(メタデータ) (2025-08-25T12:43:29Z) - Lane-Wise Highway Anomaly Detection [8.086502588472783]
本稿では,車線道路交通異常検出のためのスケーラブルかつ解釈可能なフレームワークを提案する。
従来のセンサ依存の手法とは異なり、我々の手法はAIを利用した視覚モデルを用いて車線固有の特徴を抽出する。
我々のフレームワークは、精度、リコール、F1スコアにおいて最先端の手法より優れています。
論文 参考訳(メタデータ) (2025-05-05T12:32:23Z) - YOLO-LLTS: Real-Time Low-Light Traffic Sign Detection via Prior-Guided Enhancement and Multi-Branch Feature Interaction [45.79993863157494]
YOLO-LLTSは、低照度環境向けに設計されたエンドツーエンドのリアルタイム信号検出アルゴリズムである。
YOLO-LLTSは、HRFM-SOD(High-Resolution Feature Map for Small Object Detection)、MFIA(Multi-branch Feature Interaction Attention)、PGFE(Presideed-Guided Feature Enhancement Module)の3つの主要なコントリビューションを紹介している。
実験の結果、YOLO-LLTSは最新技術の性能を達成し、TT100K-nightでは2.7% mAP50:95と1.6% mAP50:95よりも優れていた。
論文 参考訳(メタデータ) (2025-03-18T04:28:05Z) - Advancing Autonomous Vehicle Intelligence: Deep Learning and Multimodal LLM for Traffic Sign Recognition and Robust Lane Detection [11.743721109110792]
本稿では,先進的な深層学習技術とマルチモーダル大規模言語モデル(MLLM)を組み合わせた総合的な道路認識手法を提案する。
交通信号認識では,ResNet-50,Yv8,RT-DETRを評価し,ResNet-50で99.8%,YOLOv8で98.0%,RT-DETRで96.6%の精度を達成した。
車線検出のために,曲線フィッティングにより強化されたCNNに基づくセグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2025-03-08T19:12:36Z) - Fast-COS: A Fast One-Stage Object Detector Based on Reparameterized Attention Vision Transformer for Autonomous Driving [3.617580194719686]
本稿では、シーンを駆動するための新しい単一ステージオブジェクト検出フレームワークであるFast-COSを紹介する。
RAViTはImageNet-1Kデータセットで81.4%のTop-1精度を達成した。
主要なモデルの効率を上回り、最大75.9%のGPU推論速度とエッジデバイスでの1.38のスループットを提供する。
論文 参考訳(メタデータ) (2025-02-11T09:54:09Z) - Vehicle Detection and Classification for Toll collection using YOLOv11 and Ensemble OCR [0.0]
本研究は, YOLOv11コンピュータビジョンアーキテクチャとアンサンブルOCR技術を組み合わせて, プラザごとの1台のカメラを用いて, 自動料金徴収に革命をもたらす革新的な手法を提案する。
我々のシステムは、幅広い条件で平均精度0.895を達成し、ライセンスプレート認識では98.5%、軸検出では94.2%、OCR信頼スコアでは99.7%を達成している。
論文 参考訳(メタデータ) (2024-12-13T23:04:02Z) - Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。