論文の概要: Infrastructure Sensor-enabled Vehicle Data Generation using Multi-Sensor Fusion for Proactive Safety Applications at Work Zone
- arxiv url: http://arxiv.org/abs/2509.25452v1
- Date: Mon, 29 Sep 2025 19:58:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.935785
- Title: Infrastructure Sensor-enabled Vehicle Data Generation using Multi-Sensor Fusion for Proactive Safety Applications at Work Zone
- Title(参考訳): マルチセンサフュージョンを用いたインフラセンサ対応車両データ生成
- Authors: Suhala Rabab Saba, Sakib Khan, Minhaj Uddin Ahmad, Jiahe Cao, Mizanur Rahman, Li Zhao, Nathan Huynh, Eren Erman Ozguven,
- Abstract要約: インフラベースセンシングとリアルタイム軌道生成は、ワークゾーンなどの高リスク道路セグメントの安全性向上を約束する。
本研究では、路面カメラとLiDARセンサーを協調環境に組み込むことにより、これらの障壁に対処する。
シミュレーションでは、融合アルゴリズムは個々のセンサーと比較して、長手誤差を最大70%削減した。
- 参考スコア(独自算出の注目度): 8.125809724901366
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Infrastructure-based sensing and real-time trajectory generation show promise for improving safety in high-risk roadway segments such as work zones, yet practical deployments are hindered by perspective distortion, complex geometry, occlusions, and costs. This study tackles these barriers by integrating roadside camera and LiDAR sensors into a cosimulation environment to develop a scalable, cost-effective vehicle detection and localization framework, and employing a Kalman Filter-based late fusion strategy to enhance trajectory consistency and accuracy. In simulation, the fusion algorithm reduced longitudinal error by up to 70 percent compared to individual sensors while preserving lateral accuracy within 1 to 3 meters. Field validation in an active work zone, using LiDAR, a radar-camera rig, and RTK-GPS as ground truth, demonstrated that the fused trajectories closely match real vehicle paths, even when single-sensor data are intermittent or degraded. These results confirm that KF based sensor fusion can reliably compensate for individual sensor limitations, providing precise and robust vehicle tracking capabilities. Our approach thus offers a practical pathway to deploy infrastructure-enabled multi-sensor systems for proactive safety measures in complex traffic environments.
- Abstract(参考訳): インフラベースのセンシングとリアルタイム軌道生成は、ワークゾーンのような高リスク道路セグメントの安全性向上を約束するが、現実的な展開は、視点歪み、複雑な幾何学、閉塞、コストによって妨げられる。
本研究では,道路カメラとLiDARセンサを協調環境に統合し,スケーラブルで費用対効果の高い車両検出・位置決めフレームワークを開発し,Kalmanフィルタを用いたレイトフュージョン戦略を用いて軌道の整合性と精度を向上させることにより,これらの障壁に対処する。
シミュレーションでは、1~3m以内の側方精度を維持しながら、個々のセンサーと比較して縦誤差を最大70%削減した。
レーダーカメラ装置であるLiDARとRTK-GPSを地平線として用いたアクティブワークゾーンのフィールド検証では、単一センサデータが間欠的または劣化した場合でも、融合軌跡が実際の車両経路と密に一致していることが実証された。
これらの結果は、KFベースのセンサーフュージョンが個々のセンサーの限界を確実に補償し、正確で堅牢な車両追跡機能を提供することを確認した。
そこで本手法は,複雑な交通環境において,アクティブな安全対策のためのインフラ対応マルチセンサシステムを展開するための実践的経路を提供する。
関連論文リスト
- Distance Estimation in Outdoor Driving Environments Using Phase-only Correlation Method with Event Cameras [5.690128924544198]
単眼イベントカメラと路面LEDバーを用いた距離推定手法を提案する。
提案手法は,20mから60mの範囲で0.5m以下の誤差で90%以上の成功率を達成する。
将来的には、LEDを備えたスマートポールなどのインフラを活用して、この手法を全位置推定に拡張する予定である。
論文 参考訳(メタデータ) (2025-05-23T07:44:33Z) - Harnessing Smartphone Sensors for Enhanced Road Safety: A Comprehensive Dataset and Review [7.867406170788454]
本研究では,スマートフォンセンサから得られた包括的データセットを提案する。
これらのセンサーは加速力、重力、回転速度、磁場強度、車両速度などのパラメータをキャプチャする。
このデータセットは、道路安全、インフラ整備、交通管理、都市計画を強化するように設計されている。
論文 参考訳(メタデータ) (2024-11-11T19:15:29Z) - An Efficient Approach to Generate Safe Drivable Space by LiDAR-Camera-HDmap Fusion [13.451123257796972]
ドライビング可能な空間抽出のための自律走行車(AV)のための高精度で堅牢な認識モジュールを提案する。
我々の研究は、LiDAR、カメラ、HDマップデータ融合を利用した、堅牢で汎用的な知覚モジュールを導入している。
我々のアプローチは実際のデータセットでテストされ、その信頼性は、私たちの自律シャトルであるWATonoBusの日々の(厳しい雪の天候を含む)運用中に検証されます。
論文 参考訳(メタデータ) (2024-10-29T17:54:02Z) - AGSENet: A Robust Road Ponding Detection Method for Proactive Traffic Safety [30.305692955291033]
道路の沈み込みは、車両を制御不能にさせ、小さなフェンダーの曲がり角から激しい衝突に至る事故を引き起こすことにより、道路の安全に深刻な脅威をもたらす。
既存技術は、複雑な道路テクスチャと反射特性の影響による可変な池色化により、道路の熟成を正確に識別するのに苦慮している。
本稿では,自己注意型グローバル・サリエンシ・エンハンス・ネットワーク(AGSENet)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-22T13:21:36Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Automated Automotive Radar Calibration With Intelligent Vehicles [73.15674960230625]
本稿では,自動車用レーダセンサの自動校正手法を提案する。
本手法では, 車両の外部改造を必要とせず, 自動走行車から得られる位置情報を利用する。
実地試験場からのデータを評価した結果,インフラセンサを自動で正確に校正できることが判明した。
論文 参考訳(メタデータ) (2023-06-23T07:01:10Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。