論文の概要: Efficient Vision-based Vehicle Speed Estimation
- arxiv url: http://arxiv.org/abs/2505.01203v1
- Date: Fri, 02 May 2025 11:48:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:20.009693
- Title: Efficient Vision-based Vehicle Speed Estimation
- Title(参考訳): 視覚に基づく車速推定の効率化
- Authors: Andrej Macko, Lukáš Gajdošech, Viktor Kocur,
- Abstract要約: リアルタイム性能向上のための改良点をいくつか紹介する。
本手法をBrnoCompSpeedデータセット上でいくつかの変種で評価する。
我々の最高の性能モデルは、車両の速度推定誤差の中央値において、過去の最先端モデルを上回っている。
- 参考スコア(独自算出の注目度): 1.6385815610837167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a computationally efficient method for vehicle speed estimation from traffic camera footage. Building upon previous work that utilizes 3D bounding boxes derived from 2D detections and vanishing point geometry, we introduce several improvements to enhance real-time performance. We evaluate our method in several variants on the BrnoCompSpeed dataset in terms of vehicle detection and speed estimation accuracy. Our extensive evaluation across various hardware platforms, including edge devices, demonstrates significant gains in frames per second (FPS) compared to the prior state-of-the-art, while maintaining comparable or improved speed estimation accuracy. We analyze the trade-off between accuracy and computational cost, showing that smaller models utilizing post-training quantization offer the best balance for real-world deployment. Our best performing model beats previous state-of-the-art in terms of median vehicle speed estimation error (0.58 km/h vs. 0.60 km/h), detection precision (91.02% vs 87.08%) and recall (91.14% vs. 83.32%) while also being 5.5 times faster.
- Abstract(参考訳): 本稿では,交通カメラの映像から車両の速度を推定する計算的手法を提案する。
2次元検出と点幾何学の消滅から導かれる3次元境界ボックスを利用した以前の研究に基づいて、実時間性能向上のためのいくつかの改善点を導入する。
車両検出と速度推定の精度から,BrnoCompSpeedデータセットのいくつかの変種を用いて本手法の評価を行った。
エッジデバイスを含む各種ハードウェアプラットフォームに対する広範な評価は、従来の最先端技術と比較して、フレーム毎秒(FPS)が大幅に向上する一方で、同等または改善された速度推定精度を維持していることを示す。
計算コストと精度のトレードオフを分析し、トレーニング後の量子化を利用した小さなモデルが現実世界の展開に最適なバランスを提供することを示した。
我々の最高の性能モデルは、平均速度推定誤差(0.58 km/h 対 0.60 km/h)、検出精度(91.02% 対 87.08%)、リコール率(91.14% 対 83.32%)および5.5倍の速さで、過去の最先端モデルを上回った。
関連論文リスト
- TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - KAN-RCBEVDepth: A multi-modal fusion algorithm in object detection for autonomous driving [2.382388777981433]
本稿では, 自律走行における3次元物体検出の高速化を目的としたkan-RCBEVDepth法を提案する。
我々のユニークなBird’s Eye Viewベースのアプローチは、検出精度と効率を大幅に改善します。
コードはurlhttps://www.laitiamo.com/laitiamo/RCBEVDepth-KANでリリースされる。
論文 参考訳(メタデータ) (2024-08-04T16:54:49Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - An approach to improving sound-based vehicle speed estimation [0.0]
本稿では,最近提案された音速推定法の性能改善について検討する。
この方法はVS10データセットでテストされ、10台の異なる車両の304のオーディオビデオが記録されている。
論文 参考訳(メタデータ) (2022-04-08T12:58:35Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - VSAC: Efficient and Accurate Estimator for H and F [68.65610177368617]
VSACはRANSAC型頑健な推定器であり、多くの新奇性がある。
従来のすべてのプロセッサよりも大幅に高速で、CPU上では平均1-2msで動作する。
現在最も正確な2次元幾何学推定器である MAGSAC++ と同等の精度で2桁高速である。
論文 参考訳(メタデータ) (2021-06-18T17:04:57Z) - A Framework for Real-time Traffic Trajectory Tracking, Speed Estimation,
and Driver Behavior Calibration at Urban Intersections Using Virtual Traffic
Lanes [5.735035463793008]
本稿では,VT-Laneを用いて得られた高精度な軌跡と移動分類を取り入れたケーススタディを提案する。
我々は、高度に計測された車両を用いて、ビデオ推論から得られた推定速度を検証する。
次に、推定速度を用いて、研究領域における車両の運転行動モデルのパラメータを校正する。
論文 参考訳(メタデータ) (2021-06-18T06:15:53Z) - ViPNAS: Efficient Video Pose Estimation via Neural Architecture Search [94.90294600817215]
高速なオンラインビデオポーズ推定のための空間的・時間的ネットワークに対する新しいニューラルネットワーク探索(NAS)手法(ViPNAS)を提案する。
空間レベルでは,ネットワーク深さ,幅,カーネルサイズ,グループ数,注目度などの5つの異なる次元の探索空間を慎重に設計する。
時間レベルでは、一連の時間的特徴融合から検索し、複数のビデオフレームの合計精度と速度を最適化する。
論文 参考訳(メタデータ) (2021-05-21T06:36:40Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - Detection of 3D Bounding Boxes of Vehicles Using Perspective
Transformation for Accurate Speed Measurement [3.8073142980733]
交通監視カメラで捉えた車両の3次元境界ボックス検出のためのアルゴリズムの改良版を提案する。
我々のアルゴリズムは、探索されたシーンの点の既知の幾何を利用して視点変換を構築する。
他の最先端の完全自動結果と比較して、我々のアルゴリズムは平均絶対速度測定誤差を32%(1.10 km/hから0.75 km/h)、絶対中央値誤差を40%(0.97 km/hから0.58 km/h)削減する。
論文 参考訳(メタデータ) (2020-03-29T21:01:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。