論文の概要: The ATLAS of Traffic Lights: A Reliable Perception Framework for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2504.19722v1
- Date: Mon, 28 Apr 2025 12:15:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.421576
- Title: The ATLAS of Traffic Lights: A Reliable Perception Framework for Autonomous Driving
- Title(参考訳): ATLAS of Traffic Lights: 自動運転のための信頼性の高い知覚フレームワーク
- Authors: Rupert Polley, Nikolai Polley, Dominik Heid, Marc Heinrich, Sven Ochs, J. Marius Zöllner,
- Abstract要約: 本稿では,最先端検出モデルと新たなリアルタイムアソシエーションと意思決定フレームワークを統合したモジュール化された認識フレームワークを提案する。
我々は、交通信号状態とピクトグラムの包括的なアノテーションを提供するATLASデータセットを紹介した。
我々は、ATLAS上のいくつかの最先端の信号検出アーキテクチャを訓練し、評価し、精度とロバスト性の両方において顕著な性能向上を示す。
- 参考スコア(独自算出の注目度): 9.932968493913357
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Traffic light perception is an essential component of the camera-based perception system for autonomous vehicles, enabling accurate detection and interpretation of traffic lights to ensure safe navigation through complex urban environments. In this work, we propose a modularized perception framework that integrates state-of-the-art detection models with a novel real-time association and decision framework, enabling seamless deployment into an autonomous driving stack. To address the limitations of existing public datasets, we introduce the ATLAS dataset, which provides comprehensive annotations of traffic light states and pictograms across diverse environmental conditions and camera setups. This dataset is publicly available at https://url.fzi.de/ATLAS. We train and evaluate several state-of-the-art traffic light detection architectures on ATLAS, demonstrating significant performance improvements in both accuracy and robustness. Finally, we evaluate the framework in real-world scenarios by deploying it in an autonomous vehicle to make decisions at traffic light-controlled intersections, highlighting its reliability and effectiveness for real-time operation.
- Abstract(参考訳): 交通信号の認識は、交通信号の正確な検出と解釈を可能にし、複雑な都市環境における安全なナビゲーションを可能にする。
本研究では,新しいリアルタイムアソシエーションおよび意思決定フレームワークと最先端検出モデルを統合し,自律走行スタックへのシームレスな展開を可能にするモジュール化された認識フレームワークを提案する。
既存の公開データセットの限界に対処するため、様々な環境条件やカメラ設定をまたいだ交通信号状態とピクトグラムの包括的なアノテーションを提供するATLASデータセットを紹介した。
このデータセットはhttps://url.fzi.de/ATLASで公開されている。
我々は、ATLAS上のいくつかの最先端の信号検出アーキテクチャを訓練し、評価し、精度とロバスト性の両方において顕著な性能向上を示す。
最後に, リアルタイム運転における信頼性と有効性を強調し, 自動走行車に配置して, 信号制御交差点での意思決定を行うことにより, 実世界のシナリオにおけるフレームワークの評価を行った。
関連論文リスト
- Video-based Traffic Light Recognition by Rockchip RV1126 for Autonomous Driving [19.468567166834585]
リアルタイムの交通信号認識は、都市環境における自動運転の安全性とナビゲーションに不可欠である。
我々は、複数の連続するフレームを処理し、堅牢なトラフィック光検出と状態分類を実現する、ビデオベースの新しいエンドツーエンドニューラルネットワークであるtextitViTLRを提案する。
我々は、自走運転用HDマップを用いて、TextitViTLRをエゴレーン交通信号認識システムに統合することに成功している。
論文 参考訳(メタデータ) (2025-03-31T11:27:48Z) - RAD: Retrieval-Augmented Decision-Making of Meta-Actions with Vision-Language Models in Autonomous Driving [10.984203470464687]
視覚言語モデル(VLM)は、空間認識の不十分さや幻覚といった限界に悩まされることが多い。
本稿では,自律走行シーンにおけるメタアクションを確実に生成するVLMの能力を高めるための,検索強化意思決定(RAD)フレームワークを提案する。
我々は,NuScenesデータセットから得られたデータセットに基づいてVLMを微調整し,その空間的知覚と鳥眼視画像理解能力を高める。
論文 参考訳(メタデータ) (2025-03-18T03:25:57Z) - Towards Intelligent Transportation with Pedestrians and Vehicles In-the-Loop: A Surveillance Video-Assisted Federated Digital Twin Framework [62.47416496137193]
本稿では,歩行者や車いすによるITSを支援するための監視ビデオ支援型デジタルツイン(SV-FDT)フレームワークを提案する。
i)複数のソースからトラフィック監視ビデオを収集するエンドレイヤ、(ii)セマンティックセグメンテーションに基づく視覚理解、ツインエージェントベースのインタラクションモデリング、およびローカルデジタルツインシステム(LDTS)をローカルで作成するエッジレイヤ、(iii)異なるリージョンにわたるLDTSを統合してグローバルDTモデルをリアルタイムで構築するクラウドレイヤの3層で構成されている。
論文 参考訳(メタデータ) (2025-03-06T07:36:06Z) - An Efficient Approach to Generate Safe Drivable Space by LiDAR-Camera-HDmap Fusion [13.451123257796972]
ドライビング可能な空間抽出のための自律走行車(AV)のための高精度で堅牢な認識モジュールを提案する。
我々の研究は、LiDAR、カメラ、HDマップデータ融合を利用した、堅牢で汎用的な知覚モジュールを導入している。
我々のアプローチは実際のデータセットでテストされ、その信頼性は、私たちの自律シャトルであるWATonoBusの日々の(厳しい雪の天候を含む)運用中に検証されます。
論文 参考訳(メタデータ) (2024-10-29T17:54:02Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - FARSEC: A Reproducible Framework for Automatic Real-Time Vehicle Speed
Estimation Using Traffic Cameras [14.339217121537537]
ナビゲーションやロジスティクスなどの交通依存システムは、信頼性の高い速度推定の恩恵を受ける可能性がある。
我々は,公共交通カメラのより多様なデータに対処する,自動リアルタイム車両速度計算のための新しいフレームワークを提供する。
我々のフレームワークは、カメラの動きや異なるビデオストリーム入力などの現実的な条件を自動で処理できる。
論文 参考訳(メタデータ) (2023-09-25T19:02:40Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Visual Perception System for Autonomous Driving [9.659835301514288]
本研究は、走行物体の軌跡追跡と予測を統合して衝突を防止する、自律走行のための視覚的認識システムを導入する。
このシステムは歩行者の動きの手がかりを利用して、その動きを監視し、予測し、同時に環境をマッピングする。
このアプローチの性能、効率、レジリエンスは、シミュレーションと実世界の両方のデータセットの包括的な評価によって実証される。
論文 参考訳(メタデータ) (2023-03-03T23:12:43Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。