論文の概要: Incident Detection on Junctions Using Image Processing
- arxiv url: http://arxiv.org/abs/2104.13437v1
- Date: Tue, 27 Apr 2021 19:18:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 21:32:36.189351
- Title: Incident Detection on Junctions Using Image Processing
- Title(参考訳): 画像処理による接合のインシデント検出
- Authors: Murat Tulga\c{c}, Enes Y\"unc\"u, Mohamad-Alhaddad and Ceylan
Yozgatl{\i}gil
- Abstract要約: 軌道情報は、魚眼カメラからストリームされる視覚データの車両検出および追跡アルゴリズムによって提供される。
提案システムは, 車両検出で84.6%, 合成データで異常検出で96.8%の成功を収めた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In traffic management, it is a very important issue to shorten the response
time by detecting the incidents (accident, vehicle breakdown, an object falling
on the road, etc.) and informing the corresponding personnel. In this study, an
anomaly detection framework for road junctions is proposed. The final judgment
is based on the trajectories followed by the vehicles. Trajectory information
is provided by vehicle detection and tracking algorithms on visual data
streamed from a fisheye camera. Deep learning algorithms are used for vehicle
detection, and Kalman Filter is used for tracking. To observe the trajectories
more accurately, the detected vehicle coordinates are transferred to the bird's
eye view coordinates using the lens distortion model prediction algorithm. The
system determines whether there is an abnormality in trajectories by comparing
historical trajectory data and instantaneous incoming data. The proposed system
has achieved 84.6% success in vehicle detection and 96.8% success in
abnormality detection on synthetic data. The system also works with a 97.3%
success rate in detecting abnormalities on real data.
- Abstract(参考訳): 交通管理においては、事故(事故、車両の故障、道路に落下する物体等)を検出して応答時間を短縮することが非常に重要な問題である。
対応する人員に知らせるのです
本研究では,道路合流点の異常検出フレームワークを提案する。
最終判断は、車両に続く軌道に基づいて行われる。
軌道情報は、魚眼カメラからストリームされる視覚データの車両検出および追跡アルゴリズムによって提供される。
ディープラーニングアルゴリズムは車両検出に使われ、カルマンフィルタは追跡に使用される。
より正確に軌道を観測するために、検出された車両座標をレンズ歪みモデル予測アルゴリズムを用いて鳥の視線座標に転送する。
履歴軌跡データと瞬時入射データとを比較することにより、軌跡の異常の有無を判定する。
提案システムは, 車両検出で84.6%, 合成データで異常検出で96.8%の成功を収めた。
また、実際のデータの異常を検出するために97.3%の成功率で動作する。
関連論文リスト
- Advance Real-time Detection of Traffic Incidents in Highways using Vehicle Trajectory Data [3.061662434597097]
本研究は、ルイジアナ州で最も急激な高速道路であるI-10の車両軌跡データと交通事故データを用いている。
さまざまな機械学習アルゴリズムを使用して、下流の道路区間で事故に遭遇する可能性のある軌道を検出する。
その結果,ランダムフォレストモデルでは,適切なリコール値と識別能力を持つインシデントを予測する上で,最高の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-15T00:51:48Z) - MEDAVET: Traffic Vehicle Anomaly Detection Mechanism based on spatial
and temporal structures in vehicle traffic [2.8068840920981484]
本稿では,高速道路の交通異常を検出するために,コンピュータビジョンを用いた車両追跡をモデル化することを目的とする。
トラフィックの検出、追跡、分析のステップを開発する。
実験結果から,本手法はTrack4テストセットで許容可能であることが示された。
論文 参考訳(メタデータ) (2023-10-28T00:36:50Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Spatio-Temporal Context Modeling for Road Obstacle Detection [12.464149169670735]
トレーニングデータのレイアウトを用いて、駆動シーンのデータ駆動コンテキスト時間モデルを構築する。
障害物は最先端のオブジェクト検出アルゴリズムによって検出され、結果は生成されたシーンと組み合わせられる。
論文 参考訳(メタデータ) (2023-01-19T07:06:35Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Active Learning of Neural Collision Handler for Complex 3D Mesh
Deformations [68.0524382279567]
3次元変形メッシュにおける衝突の検出と処理を行う頑健な学習アルゴリズムを提案する。
提案手法は教師あり学習法より優れ, 精度は93.8-98.1%である。
論文 参考訳(メタデータ) (2021-10-08T04:08:31Z) - A Pedestrian Detection and Tracking Framework for Autonomous Cars:
Efficient Fusion of Camera and LiDAR Data [0.17205106391379021]
本稿では,カメラとLiDARセンサデータを用いた歩行者検出と追跡のための新しい手法を提案する。
検出フェーズは、LiDARストリームを計算的に抽出可能な深度画像に変換し、さらに、歩行者候補を特定するディープニューラルネットワークを開発する。
トラッキングフェーズは、Kalmanフィルタ予測と、シーン内の複数の歩行者を追跡するための光フローアルゴリズムの組み合わせである。
論文 参考訳(メタデータ) (2021-08-27T16:16:01Z) - Tracking Road Users using Constraint Programming [79.32806233778511]
本稿では,マルチオブジェクトトラッキング(MOT)問題のトラッキング・バイ・検出パラダイムに見られるデータアソシエーションフェーズに対する制約プログラミング(CP)アプローチを提案する。
提案手法は車両追跡データを用いてテストし,UA-DETRACベンチマークの上位手法よりも優れた結果を得た。
論文 参考訳(メタデータ) (2020-03-10T00:04:32Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。