論文の概要: Identifying High Accuracy Regions in Traffic Camera Images to Enhance
the Estimation of Road Traffic Metrics: A Quadtree Based Method
- arxiv url: http://arxiv.org/abs/2106.14049v2
- Date: Tue, 29 Jun 2021 01:57:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 11:25:35.505045
- Title: Identifying High Accuracy Regions in Traffic Camera Images to Enhance
the Estimation of Road Traffic Metrics: A Quadtree Based Method
- Title(参考訳): 交通カメラ画像における高精度領域の同定と道路交通指標の推定
- Authors: Yue Lin, Ningchuan Xiao
- Abstract要約: クワッドツリーに基づくアルゴリズムが開発され、高い検出精度の領域だけが残るまで画像範囲を連続的に分割する。
本研究では,中央オハイオの異なる高さと解像度の交通カメラ画像を用いて,HAIRを用いた交通密度推定の精度向上を実証する。
- 参考スコア(独自算出の注目度): 6.806631895111045
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The growing number of real-time camera feeds in urban areas has made it
possible to provide high-quality traffic data for effective transportation
planning, operations, and management. However, deriving reliable traffic
metrics from these camera feeds has been a challenge due to the limitations of
current vehicle detection techniques, as well as the various camera conditions
such as height and resolution. In this work, a quadtree based algorithm is
developed to continuously partition the image extent until only regions with
high detection accuracy are remained. These regions are referred to as the
high-accuracy identification regions (HAIR) in this paper. We demonstrate how
the use of the HAIR can improve the accuracy of traffic density estimates using
images from traffic cameras at different heights and resolutions in Central
Ohio. Our experiments show that the proposed algorithm can be used to derive
robust HAIR where vehicle detection accuracy is 41 percent higher than that in
the original image extent. The use of the HAIR also significantly improves the
traffic density estimation with an overall decrease of 49 percent in root mean
squared error.
- Abstract(参考訳): 都市部におけるリアルタイムカメラフィードの増加により、効率的な交通計画、運用、管理のための高品質な交通データの提供が可能になった。
しかし、現在の車両検出技術の限界や、高さや解像度などの様々なカメラ条件により、これらのカメラフィードから信頼性の高い交通指標を導き出すことは課題となっている。
本研究では,検出精度の高い領域のみが残るまで画像範囲を連続的に分割するクワッドツリー型アルゴリズムを開発した。
本論文では,これらの領域を高精度識別領域(HAIR)と呼ぶ。
本研究では,中央オハイオの異なる高さと解像度の交通カメラ画像を用いて,HAIRを用いた交通密度推定の精度向上を実証する。
実験の結果,提案アルゴリズムは,車両検出精度が原画像の41%以上であるロバストなHAIRを導出するのに有効であることがわかった。
HAIRの使用はまた、ルート平均2乗誤差の49%を全体で減少させ、トラフィック密度の推定を著しく改善する。
関連論文リスト
- Traffic control using intelligent timing of traffic lights with reinforcement learning technique and real-time processing of surveillance camera images [0.0]
信号機の最適タイミングを判定し、複数のパラメータに従って適用する。
YOLOv9-Cモデルを用いた車両検出には深層学習法が用いられた。
イランの車の画像にトランスファーラーニングとモデルの再訓練を併用することで、モデルの精度が向上した。
論文 参考訳(メタデータ) (2024-05-22T00:04:32Z) - Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - Real-Time High-Resolution Pedestrian Detection in Crowded Scenes via
Parallel Edge Offloading [13.672372305669116]
Hodeはオフロード分析フレームワークで、複数のエッジノードを近接して利用し、高精度な入力で歩行者検出を高速化する。
Hodeは最大で2.01%のスピードアップを達成できる。
論文 参考訳(メタデータ) (2023-01-20T02:51:53Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - TraCon: A novel dataset for real-time traffic cones detection using deep
learning [7.759841699582662]
本研究では,交通円錐の効率的かつ迅速な検出のための解を見つけるために,YOLOv5アルゴリズムを用いる。
YOLOv5はIoUのスコアを91.31%まで高感度で検出できる。
論文 参考訳(メタデータ) (2022-05-24T06:51:58Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Turning Traffic Monitoring Cameras into Intelligent Sensors for Traffic
Density Estimation [9.096163152559054]
本稿では,4L特性の未校正交通監視カメラを用いて,交通密度を推定するためのフレームワークを提案する。
提案するフレームワークは,カメラキャリブレーションと車両検出という2つの主要コンポーネントで構成されている。
その結果, カメラキャリブレーションにおける平均絶対誤差 (MAE) は6m中0.2m未満であり, 各種条件下での車両検出精度は約90%であった。
論文 参考訳(メタデータ) (2021-10-29T15:39:06Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。