論文の概要: Dogfight: Detecting Drones from Drones Videos
- arxiv url: http://arxiv.org/abs/2103.17242v1
- Date: Wed, 31 Mar 2021 17:43:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 17:02:32.397842
- Title: Dogfight: Detecting Drones from Drones Videos
- Title(参考訳): ドローンの動画からドローンを検知するdogfight
- Authors: Muhammad Waseem Ashraf, Waqas Sultani, Mubarak Shah
- Abstract要約: 本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
- 参考スコア(独自算出の注目度): 58.158988162743825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As airborne vehicles are becoming more autonomous and ubiquitous, it has
become vital to develop the capability to detect the objects in their
surroundings. This paper attempts to address the problem of drones detection
from other flying drones. The erratic movement of the source and target drones,
small size, arbitrary shape, large intensity variations, and occlusion make
this problem quite challenging. In this scenario, region-proposal based methods
are not able to capture sufficient discriminative foreground-background
information. Also, due to the extremely small size and complex motion of the
source and target drones, feature aggregation based methods are unable to
perform well. To handle this, instead of using region-proposal based methods,
we propose to use a two-stage segmentation-based approach employing
spatio-temporal attention cues. During the first stage, given the overlapping
frame regions, detailed contextual information is captured over convolution
feature maps using pyramid pooling. After that pixel and channel-wise attention
is enforced on the feature maps to ensure accurate drone localization. In the
second stage, first stage detections are verified and new probable drone
locations are explored. To discover new drone locations, motion boundaries are
used. This is followed by tracking candidate drone detections for a few frames,
cuboid formation, extraction of the 3D convolution feature map, and drones
detection within each cuboid. The proposed approach is evaluated on two
publicly available drone detection datasets and outperforms several competitive
baselines.
- Abstract(参考訳): 空飛ぶ車両はより自律的でユビキタスになりつつあり、周囲の物体を検出する能力を開発することが不可欠になっている。
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンの不安定な動き、小さなサイズ、任意の形状、大きな強度の変化、そして閉塞がこの問題をかなり難しくしている。
このシナリオでは、地域固有法は十分な差別的前景情報をキャプチャできない。
また、ソースとターゲットドローンの非常に小さなサイズと複雑な動きのため、特徴集約ベースの手法はうまく動作できない。
これに対処するために, 空間分布に基づく手法ではなく, 時空間的注意の手がかりを用いた2段階セグメンテーションに基づく手法を提案する。
最初の段階では、重なり合うフレーム領域を考慮し、ピラミッドプールを用いた畳み込み特徴マップ上で詳細なコンテキスト情報をキャプチャする。
その後、特徴マップに画素やチャネルに関する注意を向け、正確なドローンのローカライゼーションを保証する。
第2段階では、第1段階の検出が検証され、新しい観測可能なドローンの位置が探索される。
新しいドローンの場所を見つけるために、モーションバウンダリが使用される。
続いて、数フレームのドローン検出候補の追跡、立方体形成、3D畳み込み特徴マップの抽出、および各立方体内のドローン検出が続く。
提案手法は2つのドローン検出データセットで評価され、いくつかの競合ベースラインを上回っている。
関連論文リスト
- Drone-type-Set: Drone types detection benchmark for drone detection and tracking [0.6294091730968154]
本稿では,認識された物体検出モデルとの比較とともに,各種ドローンのデータセットを提供する。
異なるモデルの実験結果と各手法の記載が提供される。
論文 参考訳(メタデータ) (2024-05-16T18:56:46Z) - C2FDrone: Coarse-to-Fine Drone-to-Drone Detection using Vision Transformer Networks [23.133250476580038]
衝突回避、敵のドローン対策、捜索救助活動など、さまざまな用途において、視覚に基づくドローンからドローンまでの検出システムは不可欠である。
ドローンの検出には、小さなオブジェクトのサイズ、歪み、リアルタイム処理要求など、ユニークな課題がある。
本稿では,視覚変換器に基づく粗大な検出手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T05:51:21Z) - A Vision-based Autonomous Perching Approach for Nano Aerial Vehicles [0.0]
ナノクワッドコプターのための視覚に基づく自律パーチ手法を提案する。
ドローンは2cmの精度でマーカーの中心に到達することができる。
論文 参考訳(メタデータ) (2023-06-16T02:34:50Z) - Unauthorized Drone Detection: Experiments and Prototypes [0.8294692832460543]
本稿では、受信信号強度インジケータ(RSSI)と、ドローンの位置座標から生成された暗号鍵の2段階検証を利用する、新しい暗号化ベースのドローン検出方式を提案する。
論文 参考訳(メタデータ) (2022-12-02T20:43:29Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - A dataset for multi-sensor drone detection [67.75999072448555]
近年,小型・遠隔操作無人航空機(UAV)の使用が増加している。
ドローン検出に関するほとんどの研究は、取得デバイスの種類、ドローンの種類、検出範囲、データセットを特定することに失敗している。
我々は、赤外線および可視ビデオとオーディオファイルを含むドローン検出のための注釈付きマルチセンサーデータベースにコントリビュートする。
論文 参考訳(メタデータ) (2021-11-02T20:52:03Z) - Vision-based Drone Flocking in Outdoor Environments [9.184987303791292]
このレターでは、ドローン群に対する視覚に基づく検出と追跡アルゴリズムを提案する。
我々は畳み込みニューラルネットワークを用いてクワッドコプターの近傍のエージェントをリアルタイムで検出・ローカライズする。
背景が乱雑で照明が難しいにもかかわらず、ドローンは屋外環境で安全に航行できることが示される。
論文 参考訳(メタデータ) (2020-12-02T14:44:40Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。