論文の概要: Deep Vehicle Detection in Satellite Video
- arxiv url: http://arxiv.org/abs/2204.06828v1
- Date: Thu, 14 Apr 2022 08:54:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 13:43:56.015833
- Title: Deep Vehicle Detection in Satellite Video
- Title(参考訳): 衛星映像における深部車両検出
- Authors: Roman Pflugfelder and Axel Weissenfeld and Julian Wagner
- Abstract要約: 車両検出は、車両(4ピクセル)の微妙さと背景のEOとの類似性のため、単一の衛星画像ではおそらく不可能である。
プール層を無視し、漏れやすいReLUを使用する、コンパクトな3倍の3ドルニューラルネットワークの新しいモデルが提案されている。
2つの新しい注釈付き衛星ビデオの実証的な結果により、このアプローチが車両検出に適用可能であることが再確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents a deep learning approach for vehicle detection in
satellite video. Vehicle detection is perhaps impossible in single EO satellite
images due to the tininess of vehicles (4-10 pixel) and their similarity to the
background. Instead, we consider satellite video which overcomes the lack of
spatial information by temporal consistency of vehicle movement. A new
spatiotemporal model of a compact $3 \times 3$ convolutional, neural network is
proposed which neglects pooling layers and uses leaky ReLUs. Then we use a
reformulation of the output heatmap including Non-Maximum-Suppression (NMS) for
the final segmentation. Empirical results on two new annotated satellite videos
reconfirm the applicability of this approach for vehicle detection. They more
importantly indicate that pre-training on WAMI data and then fine-tuning on few
annotated video frames for a new video is sufficient. In our experiment only
five annotated images yield a $F_1$ score of 0.81 on a new video showing more
complex traffic patterns than the Las Vegas video. Our best result on Las Vegas
is a $F_1$ score of 0.87 which makes the proposed approach a leading method for
this benchmark.
- Abstract(参考訳): 本研究は,衛星映像における車両検出のための深層学習手法を提案する。
eo衛星画像では、車両の微妙さ(4-10ピクセル)と背景との類似性のため、車両検出はおそらく不可能である。
代わりに,車両移動の時間的一貫性によって空間情報の欠如を克服する衛星映像を考える。
プール層を無視し、漏洩したReLUを使用する、コンパクトな3ドル3セント畳み込みニューラルネットワークの新しい時空間モデルを提案する。
次に,NMS(Non-Maximum-Suppression)を含む出力ヒートマップを最終セグメンテーションに使用する。
2つの新しいアノテートされた衛星ビデオの実証結果は、このアプローチが車両検出に適用可能であることを再確認した。
さらに重要なことは、WAMIデータに基づいて事前トレーニングを行い、新しいビデオのために注釈付きビデオフレームを微調整するだけで十分であることを示している。
私たちの実験では、ラスベガスの動画より複雑な交通パターンを示す新しいビデオでF_1$スコアが0.81である5つの注釈付き画像しか得られなかった。
ラスベガスでの最良の結果は0.87ドルのF_1$スコアであり、提案手法がこのベンチマークのリードメソッドとなる。
関連論文リスト
- VFM-Det: Towards High-Performance Vehicle Detection via Large Foundation Models [21.186456742407007]
本稿では,VFM-Detと呼ばれる,事前訓練された基礎車両モデル(VehicleMAE)と大規模言語モデル(T5)に基づく新しい車両検出パラダイムを提案する。
我々のモデルは、それぞれ$AP_0.5$と$AP_0.75$で、ベースラインアプローチを$+5.1%$、$+6.2%$で改善する。
論文 参考訳(メタデータ) (2024-08-23T12:39:02Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - Tracking Everything Everywhere All at Once [111.00807055441028]
ビデオシーケンスから高密度及び長距離運動を推定するための新しいテスト時間最適化法を提案する。
我々はOmniMotionと呼ばれる完全で一貫した動作表現を提案する。
提案手法は,従来の最先端手法よりも定量的にも定性的にも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-06-08T17:59:29Z) - AutoShot: A Short Video Dataset and State-of-the-Art Shot Boundary
Detection [70.99025467739715]
我々はSHOTという新しい公開ショートビデオsHot bOundary deTectionデータセットをリリースする。
SHOTは、853の完全なショートビデオと11,606のショットアノテーションで構成され、2,716の高品質なショット境界アノテーションが200のテストビデオに含まれている。
提案手法はAutoShotと呼ばれ,従来の最先端手法よりもF1スコアが高い。
論文 参考訳(メタデータ) (2023-04-12T19:01:21Z) - Video-based Smoky Vehicle Detection with A Coarse-to-Fine Framework [20.74110691914317]
75,000点の注釈付きスモーキー車両画像を用いた実世界の大規模スモーキー車両データセットを導入する。
また、セグメントレベルのアノテーションを備えた163の長いビデオを含む、スモーキーな車両ビデオデータセットも構築しています。
高速なスモーキー車両検出のための粗大きめのディープスモーキー車両検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-08T06:42:45Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Vehicle Position Estimation with Aerial Imagery from Unmanned Aerial
Vehicles [4.555256739812733]
この研究は、航空画像から正確な車両の位置を推定する過程を記述する。
この目的のために最先端のディープニューラルネットワークMask-RCNNが適用される。
平均20cmの精度は、飛行高度100m、フルHD解像度、フレーム単位の検出で達成できる。
論文 参考訳(メタデータ) (2020-04-17T12:29:40Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z) - On Learning Vehicle Detection in Satellite Video [0.0]
空中および衛星画像における車両検出は、リモートセンシング画像の全体像と比較すると、ピクセルの出現が小さいため、依然として困難である。
本研究は,衛星映像における広域動画像(WAMI)の深層学習への応用を提案する。
論文 参考訳(メタデータ) (2020-01-29T15:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。