論文の概要: Comparison of Object Detection Algorithms Using Video and Thermal Images
Collected from a UAS Platform: An Application of Drones in Traffic Management
- arxiv url: http://arxiv.org/abs/2109.13185v1
- Date: Mon, 27 Sep 2021 16:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 19:05:41.602392
- Title: Comparison of Object Detection Algorithms Using Video and Thermal Images
Collected from a UAS Platform: An Application of Drones in Traffic Management
- Title(参考訳): UASプラットフォームから収集した映像と熱画像を用いた物体検出アルゴリズムの比較:交通管理におけるドローンの適用
- Authors: Hualong Tang, Joseph Post, Achilleas Kourtellis, Brian Porter, and Yu
Zhang
- Abstract要約: 本研究では、視覚カメラと赤外線カメラの両方のリアルタイム車両検出アルゴリズムについて検討する。
フロリダ州タンパの高速道路沿いのUASプラットフォームから、レッドグリーンブルー(RGB)のビデオと熱画像が収集された。
- 参考スコア(独自算出の注目度): 2.9932638148627104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a rapid growth of applications of Unmanned Aerial Vehicles (UAVs) in
traffic management, such as traffic surveillance, monitoring, and incident
detection. However, the existing literature lacks solutions to real-time
incident detection while addressing privacy issues in practice. This study
explored real-time vehicle detection algorithms on both visual and infrared
cameras and conducted experiments comparing their performance. Red Green Blue
(RGB) videos and thermal images were collected from a UAS platform along
highways in the Tampa, Florida, area. Experiments were designed to quantify the
performance of a real-time background subtraction-based method in vehicle
detection from a stationary camera on hovering UAVs under free-flow conditions.
Several parameters were set in the experiments based on the geometry of the
drone and sensor relative to the roadway. The results show that a background
subtraction-based method can achieve good detection performance on RGB images
(F1 scores around 0.9 for most cases), and a more varied performance is seen on
thermal images with different azimuth angles. The results of these experiments
will help inform the development of protocols, standards, and guidance for the
use of drones to detect highway congestion and provide input for the
development of incident detection algorithms.
- Abstract(参考訳): 交通監視、監視、インシデント検出などの交通管理における無人航空機(uav)の応用が急速に増加している。
しかし、既存の文献では、実際のプライバシー問題に対処しながらリアルタイムのインシデント検出のソリューションが欠如している。
本研究では,視覚カメラと赤外線カメラの両方のリアルタイム車両検出アルゴリズムを調査し,その性能比較を行った。
フロリダ州タンパの高速道路沿いのuasプラットフォームから、赤緑色の青(rgb)ビデオと熱画像が収集された。
フリーフロー条件下でホバリングuavの静止カメラによる車両検出における実時間背景減算法の性能を定量化するために実験を行った。
実験では、道路に対するドローンとセンサーの形状に基づいていくつかのパラメータが設定された。
以上の結果から,RGB画像の背景サブトラクションによる検出性能(F1スコアは0.9点程度)が向上し,方位角の異なる熱画像に対して,より多彩な検出性能が得られた。
これらの実験の結果は、高速道路の混雑を検知し、インシデント検出アルゴリズムの開発にインプットを提供するためにドローンを使用するためのプロトコル、標準、ガイダンスの開発に役立ちます。
関連論文リスト
- Multi-Object Tracking based on Imaging Radar 3D Object Detection [0.13499500088995461]
本稿では,古典的追跡アルゴリズムを用いて,周囲の交通参加者を追跡する手法を提案する。
学習に基づく物体検出器はライダーとカメラのデータに適切に対応し、学習に基づく物体検出器は標準のレーダーデータ入力により劣っていることが示されている。
レーダセンサ技術の改良により、レーダの物体検出性能は大幅に改善されたが、レーダ点雲の広さによりライダーセンサに制限されている。
追跡アルゴリズムは、一貫したトラックを生成しながら、限られた検出品質を克服しなければならない。
論文 参考訳(メタデータ) (2024-06-03T05:46:23Z) - Multi-Attention Fusion Drowsy Driving Detection Model [1.2043574473965317]
我々は,Multi-Attention Fusion Drowsy Driving Detection Model (MAF)と呼ばれる新しいアプローチを導入する。
提案モデルでは96.8%の運転覚醒検出精度が得られた。
論文 参考訳(メタデータ) (2023-12-28T14:53:32Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Anomalous Motion Detection on Highway Using Deep Learning [14.617786106427834]
本稿では,新しい異常検出データセットであるハイウェイ交通異常(HTA)データセットを提案する。
我々は、最先端のディープラーニング異常検出モデルを評価し、これらの手法に新しいバリエーションを提案する。
論文 参考訳(メタデータ) (2020-06-15T05:40:11Z) - Built Infrastructure Monitoring and Inspection Using UAVs and
Vision-based Algorithms [2.0305676256390934]
本研究では, 実時間制御無人航空機(UAV)による構造物表面の検査システムを提案する。
本システムは,Wentworthライトレールベース構造である目標構造を調査するために,良好な気象条件下で運用されている。
論文 参考訳(メタデータ) (2020-05-19T14:37:48Z) - Tracking Road Users using Constraint Programming [79.32806233778511]
本稿では,マルチオブジェクトトラッキング(MOT)問題のトラッキング・バイ・検出パラダイムに見られるデータアソシエーションフェーズに対する制約プログラミング(CP)アプローチを提案する。
提案手法は車両追跡データを用いてテストし,UA-DETRACベンチマークの上位手法よりも優れた結果を得た。
論文 参考訳(メタデータ) (2020-03-10T00:04:32Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。