論文の概要: SA-NET.v2: Real-time vehicle detection from oblique UAV images with use
of uncertainty estimation in deep meta-learning
- arxiv url: http://arxiv.org/abs/2208.04190v1
- Date: Thu, 4 Aug 2022 09:08:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:46:45.207066
- Title: SA-NET.v2: Real-time vehicle detection from oblique UAV images with use
of uncertainty estimation in deep meta-learning
- Title(参考訳): SA-NET.v2: 深層メタラーニングにおける不確実性推定を用いた斜めUAV画像からのリアルタイム車両検出
- Authors: Mehdi Khoshboresh-Masouleh and Reza Shah-Hosseini
- Abstract要約: 本稿では,小さなトレーニングデータセットと深層メタラーニングに基づく斜めUAV画像に対するリアルタイム車両検出の問題点について考察する。
SA-Net.v2は、SA-CNNをベースとしたリアルタイム車両検出手法である。
実験の結果、SA-Net.v2は時系列の斜めUAV画像で有望な性能を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, unmanned aerial vehicle (UAV) imaging is a suitable solution
for real-time monitoring different vehicles on the urban scale. Real-time
vehicle detection with the use of uncertainty estimation in deep meta-learning
for the portable platforms (e.g., UAV) potentially improves video understanding
in real-world applications with a small training dataset, while many vehicle
monitoring approaches appear to understand single-time detection with a big
training dataset. The purpose of real-time vehicle detection from oblique UAV
images is to locate the vehicle on the time series UAV images by using semantic
segmentation. Real-time vehicle detection is more difficult due to the variety
of depth and scale vehicles in oblique view UAV images. Motivated by these
facts, in this manuscript, we consider the problem of real-time vehicle
detection for oblique UAV images based on a small training dataset and deep
meta-learning. The proposed architecture, called SA-Net.v2, is a developed
method based on the SA-CNN for real-time vehicle detection by reformulating the
squeeze-and-attention mechanism. The SA-Net.v2 is composed of two components,
including the squeeze-and-attention function that extracts the high-level
feature based on a small training dataset, and the gated CNN. For the real-time
vehicle detection scenario, we test our model on the UAVid dataset. UAVid is a
time series oblique UAV images dataset consisting of 30 video sequences. We
examine the proposed method's applicability for stand real-time vehicle
detection in urban environments using time series UAV images. The experiments
show that the SA-Net.v2 achieves promising performance in time series oblique
UAV images.
- Abstract(参考訳): 近年、無人航空機(UAV)イメージングは、都市規模での様々な車両のリアルタイム監視に適した解決策となっている。
ポータブルプラットフォーム(例えば、uav)のための深層メタラーニングにおける不確実性推定を用いたリアルタイム車両検出は、小さなトレーニングデータセットで実世界のアプリケーションにおけるビデオ理解を改善する可能性があるが、多くの車両監視アプローチは、大きなトレーニングデータセットでシングルタイム検出を理解するように見える。
斜めUAV画像からのリアルタイム車両検出の目的は、セマンティックセグメンテーションを用いて時系列UAV画像上の車両を特定することである。
斜視UAV画像の深度やスケールの多様性のため、リアルタイム車両検出はより困難である。
これらの事実に動機づけられた本書では,小型のトレーニングデータセットと深層メタラーニングに基づく斜めuav画像のリアルタイム車両検出の問題について考察する。
提案アーキテクチャはSA-Net.v2と呼ばれ,SA-CNNをベースとした圧縮・保持機構を改良したリアルタイム車両検出手法である。
SA-Net.v2は2つのコンポーネントで構成されており、小さなトレーニングデータセットに基づいて高レベルの特徴を抽出する圧縮&アテンション機能と、ゲートCNNである。
リアルタイム車両検出のシナリオでは、UAVidデータセット上でモデルをテストします。
UAVidは30のビデオシーケンスからなる時系列の斜めUAV画像データセットである。
時系列uav画像を用いた都市環境におけるリアルタイム車両検出手法の適用性について検討した。
実験により、SA-Net.v2は、時系列の斜めUAV画像において有望な性能を達成することが示された。
関連論文リスト
- EVD4UAV: An Altitude-Sensitive Benchmark to Evade Vehicle Detection in UAV [19.07281015014683]
無人航空機(UAV)の撮影画像における車両検出は、航空写真やリモートセンシングに広く応用されている。
近年の研究では、物体に対向パッチを加えることで、よく訓練されたディープニューラルネットワークベースの物体検出器を騙すことが示されている。
UAVにおける車両検出を回避するための高度感度ベンチマークとしてEVD4UAVという新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-03-08T16:19:39Z) - Real Time Human Detection by Unmanned Aerial Vehicles [0.0]
公安のための重要な2つのデータソースは、無人航空機(UAV)によって生成された熱赤外(TIR)リモートセンシング写真とビデオである。
ターゲットの小型化,複雑なシーン情報,視聴可能なビデオに対する低解像度化,ラベル付きデータセットやトレーニングモデルのデジェスなどにより,オブジェクト検出は依然として困難である。
本研究では,写真やビデオのためのUAV TIRオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-06T18:28:01Z) - Investigation of UAV Detection in Images with Complex Backgrounds and
Rainy Artifacts [20.20609511526255]
UAV検出のための視覚に基づく物体検出法が開発されている。
複雑な背景と雨のような気象要素を持つ画像におけるUAV検出は、まだ合理的に研究されていない。
この研究は、最先端のオブジェクト検出モデルのベンチマークにも重点を置いている。
論文 参考訳(メタデータ) (2023-05-25T19:54:33Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Analysis and Adaptation of YOLOv4 for Object Detection in Aerial Images [0.0]
本研究は,空中画像中の物体とその位置を予測するためのYOLOv4フレームワークの適応性を示す。
トレーニングされたモデルは平均的な平均精度(mAP)が45.64%となり、推論速度はTesla K80 GPUで8.7FPSに達した。
いくつかの現代の空中物体検出器との比較研究により、YOLOv4はより優れた性能を示し、航空プラットフォームに組み込むのにより適した検出アルゴリズムが示唆された。
論文 参考訳(メタデータ) (2022-03-18T23:51:09Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z) - Vehicle Position Estimation with Aerial Imagery from Unmanned Aerial
Vehicles [4.555256739812733]
この研究は、航空画像から正確な車両の位置を推定する過程を記述する。
この目的のために最先端のディープニューラルネットワークMask-RCNNが適用される。
平均20cmの精度は、飛行高度100m、フルHD解像度、フレーム単位の検出で達成できる。
論文 参考訳(メタデータ) (2020-04-17T12:29:40Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。