論文の概要: Real-Time Accident Detection in Traffic Surveillance Using Deep Learning
- arxiv url: http://arxiv.org/abs/2208.06461v1
- Date: Fri, 12 Aug 2022 19:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:03:37.737713
- Title: Real-Time Accident Detection in Traffic Surveillance Using Deep Learning
- Title(参考訳): ディープラーニングを用いた交通サーベイランスにおけるリアルタイム事故検出
- Authors: Hadi Ghahremannezhad, Hang Shi, Chengjun Liu
- Abstract要約: 本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
- 参考スコア(独自算出の注目度): 0.8808993671472349
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic detection of traffic accidents is an important emerging topic in
traffic monitoring systems. Nowadays many urban intersections are equipped with
surveillance cameras connected to traffic management systems. Therefore,
computer vision techniques can be viable tools for automatic accident
detection. This paper presents a new efficient framework for accident detection
at intersections for traffic surveillance applications. The proposed framework
consists of three hierarchical steps, including efficient and accurate object
detection based on the state-of-the-art YOLOv4 method, object tracking based on
Kalman filter coupled with the Hungarian algorithm for association, and
accident detection by trajectory conflict analysis. A new cost function is
applied for object association to accommodate for occlusion, overlapping
objects, and shape changes in the object tracking step. The object trajectories
are analyzed in terms of velocity, angle, and distance in order to detect
different types of trajectory conflicts including vehicle-to-vehicle,
vehicle-to-pedestrian, and vehicle-to-bicycle. Experimental results using real
traffic video data show the feasibility of the proposed method in real-time
applications of traffic surveillance. In particular, trajectory conflicts,
including near-accidents and accidents occurring at urban intersections are
detected with a low false alarm rate and a high detection rate. The robustness
of the proposed framework is evaluated using video sequences collected from
YouTube with diverse illumination conditions. The dataset is publicly available
at: http://github.com/hadi-ghnd/AccidentDetection.
- Abstract(参考訳): 交通監視システムにおいて,交通事故の自動検出は重要な話題である。
現在、多くの交差点には交通管理システムに接続された監視カメラが備えられている。
したがって、コンピュータビジョン技術は自動事故検出に有効なツールとなり得る。
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のyolov4法に基づく効率的かつ高精度な物体検出,ハンガリーのアルゴリズムと結合したカルマンフィルタに基づく物体追跡,軌道衝突解析による事故検出の3つの階層的ステップからなる。
オブジェクト追跡ステップにおいて、閉塞、重なり合うオブジェクト、形状変化に対応するために、オブジェクトアソシエーションに新たなコスト関数を適用する。
物体軌跡を速度・角度・距離で解析し、車両から車両、歩行者、車両から自転車まで、様々な種類の軌道衝突を検出する。
実交通映像データを用いた実験により,リアルタイム交通監視における提案手法の有効性が示された。
特に、都市交差点で発生した事故を含む軌道衝突を、低い誤警報率と高い検出率で検出する。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
データセットは、http://github.com/hadi-ghnd/AccidentDetection.comで公開されている。
関連論文リスト
- Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - A Memory-Augmented Multi-Task Collaborative Framework for Unsupervised
Traffic Accident Detection in Driving Videos [22.553356096143734]
本稿では,運転ビデオにおける教師なし交通事故検出のためのメモリ拡張型マルチタスク協調フレームワーク(MAMTCF)を提案する。
映像フレームの外観変化と物体の動きを同時にモデル化することにより,エゴ関連事故と非エゴ関連事故の両方をより正確に検出することができる。
論文 参考訳(メタデータ) (2023-07-27T01:45:13Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Incident Detection on Junctions Using Image Processing [0.0]
軌道情報は、魚眼カメラからストリームされる視覚データの車両検出および追跡アルゴリズムによって提供される。
提案システムは, 車両検出で84.6%, 合成データで異常検出で96.8%の成功を収めた。
論文 参考訳(メタデータ) (2021-04-27T19:18:05Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Artificial Intelligence Enabled Traffic Monitoring System [3.085453921856008]
本稿では,深層畳み込みニューラルネットワークを用いたリアルタイム交通映像の自動監視手法を提案する。
提案システムは、さまざまなトラフィック監視ニーズを自動化するために、最先端のディープラーニングアルゴリズムをデプロイする。
論文 参考訳(メタデータ) (2020-10-02T22:28:02Z) - Tracking Road Users using Constraint Programming [79.32806233778511]
本稿では,マルチオブジェクトトラッキング(MOT)問題のトラッキング・バイ・検出パラダイムに見られるデータアソシエーションフェーズに対する制約プログラミング(CP)アプローチを提案する。
提案手法は車両追跡データを用いてテストし,UA-DETRACベンチマークの上位手法よりも優れた結果を得た。
論文 参考訳(メタデータ) (2020-03-10T00:04:32Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。