論文の概要: Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras
- arxiv url: http://arxiv.org/abs/2401.07220v1
- Date: Sun, 14 Jan 2024 07:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:05:35.788929
- Title: Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras
- Title(参考訳): CCTVカメラを用いた高分解能交通データ収集への2次元ホログラフィーの適用
- Authors: Linlin Zhang, Xiang Yu, Abdulateef Daud, Abdul Rashid Mussah, Yaw
Adu-Gyamfi
- Abstract要約: 本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
- 参考スコア(独自算出の注目度): 9.946460710450319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic cameras remain the primary source data for surveillance activities
such as congestion and incident monitoring. To date, State agencies continue to
rely on manual effort to extract data from networked cameras due to limitations
of the current automatic vision systems including requirements for complex
camera calibration and inability to generate high resolution data. This study
implements a three-stage video analytics framework for extracting
high-resolution traffic data such vehicle counts, speed, and acceleration from
infrastructure-mounted CCTV cameras. The key components of the framework
include object recognition, perspective transformation, and vehicle trajectory
reconstruction for traffic data collection. First, a state-of-the-art vehicle
recognition model is implemented to detect and classify vehicles. Next, to
correct for camera distortion and reduce partial occlusion, an algorithm
inspired by two-point linear perspective is utilized to extracts the region of
interest (ROI) automatically, while a 2D homography technique transforms the
CCTV view to bird's-eye view (BEV). Cameras are calibrated with a two-layer
matrix system to enable the extraction of speed and acceleration by converting
image coordinates to real-world measurements. Individual vehicle trajectories
are constructed and compared in BEV using two time-space-feature-based object
trackers, namely Motpy and BYTETrack. The results of the current study showed
about +/- 4.5% error rate for directional traffic counts, less than 10% MSE for
speed bias between camera estimates in comparison to estimates from probe data
sources. Extracting high-resolution data from traffic cameras has several
implications, ranging from improvements in traffic management and identify
dangerous driving behavior, high-risk areas for accidents, and other safety
concerns, enabling proactive measures to reduce accidents and fatalities.
- Abstract(参考訳): 交通カメラは、渋滞やインシデント監視などの監視活動の主要な情報源である。
これまで、国家機関は、複雑なカメラのキャリブレーションの要件や高解像度データを生成することができないなど、現在の自動視覚システムの制限のために、ネットワークカメラからデータを抽出するための手作業に頼り続けている。
本研究では,インフラ搭載CCTVカメラから車両数,速度,加速度などの高精細トラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの重要なコンポーネントは、オブジェクト認識、パースペクティブ変換、およびトラフィックデータ収集のための車両軌道再構成である。
まず,最先端の車両認識モデルを用いて車両の検出と分類を行う。
次に、カメラの歪みを補正し、部分閉塞を低減するために、2点線形視点にインスパイアされたアルゴリズムを用いて、関心領域(ROI)を自動的に抽出し、2Dホモグラフィー技術によりCCTVビューを鳥眼ビュー(BEV)に変換する。
カメラは2層マトリクスシステムでキャリブレーションされ、画像座標を実世界計測に変換することで速度と加速度の抽出を可能にする。
個々の車両軌跡は、BEVにおいてMotpyとBYTETrackという2つの時間空間ベースのオブジェクトトラッカーを用いて構築・比較される。
その結果,指向性トラヒック数に対する誤差率は+/-4.5%であり,プローブデータからの推定値と比較して,カメラ推定速度バイアスが10%mse以下であった。
交通カメラから高解像度データを抽出することは、交通管理の改善や危険な運転行動の特定、事故のリスクの高い地域、その他の安全上の問題など、いくつかの意味を持つ。
関連論文リスト
- Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Traffic-Net: 3D Traffic Monitoring Using a Single Camera [1.1602089225841632]
我々は,1台のCCTVトラヒックカメラを用いたリアルタイムトラヒック監視のための実用的なプラットフォームを提供する。
車両・歩行者検出のためのカスタムYOLOv5ディープニューラルネットワークモデルとSORT追跡アルゴリズムの改良を行った。
また、短時間・長期の時間的ビデオデータストリームに基づく階層的なトラフィックモデリングソリューションも開発している。
論文 参考訳(メタデータ) (2021-09-19T16:59:01Z) - An overcome of far-distance limitation on tunnel CCTV-based accident
detection in AI deep-learning frameworks [0.0]
トンネルCCTVは低い高さと長距離間隔に設置されている。
既存のトンネルCCTVによる事故検知システムにおいて、CCTVから遠く離れた場所の車両を検出することはほぼ不可能である。
本稿では,CCTVのオリジナル画像とワープ画像に基づいて,画像とバウンディングボックスからなる各データセットを作成する。
論文 参考訳(メタデータ) (2021-07-22T10:42:25Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Vehicle-Human Interactive Behaviors in Emergency: Data Extraction from
Traffic Accident Videos [0.0]
現在、緊急時の車両と人間の対話行動を研究するには、ほとんど利用できない実際の緊急状況において、大量のデータセットが必要である。
本稿では,実際の事故映像から対話行動データ(車と人間の軌跡)を抽出する,しかし便利な方法を提案する。
リアルタイムの事故ビデオからデータを抽出する主な課題は、記録カメラが校正されておらず、監視の角度が不明であるという事実にある。
論文 参考訳(メタデータ) (2020-03-02T22:17:46Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。