論文の概要: TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos
- arxiv url: http://arxiv.org/abs/2210.08423v1
- Date: Sun, 16 Oct 2022 03:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:57:46.287505
- Title: TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos
- Title(参考訳): TransVisDrone: 空中ビデオにおける視覚に基づくドローン間検出のための時空間変換器
- Authors: Tushar Sangam, Ishan Rajendrakumar Dave, Waqas Sultani, Mubarak Shah
- Abstract要約: 視覚的フィードを用いたドローンからドローンへの検知は、他のドローンや航空機の物体との衝突を避けるなど、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に従い、複雑なマルチステージパイプラインを持つ。
計算効率の高いエンドツーエンドのソリューションを提供する,シンプルなyet効率のフレームワークであるTransDroneVisを提案する。
- 参考スコア(独自算出の注目度): 65.97936450384191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Drone-to-drone detection using visual feed has crucial applications like
avoiding collision with other drones/airborne objects, tackling a drone attack
or coordinating flight with other drones. However, the existing methods are
computationally costly, follow a non-end-to-end optimization and have complex
multi-stage pipeline, which make them less suitable to deploy on edge devices
for real-time drone flight. In this work, we propose a simple-yet-effective
framework TransVisDrone, which provides end-to-end solution with higher
computational efficiency. We utilize CSPDarkNet-53 network to learn
object-related spatial features and VideoSwin model to learn the
spatio-temporal dependencies of drone motion which improves drone detection in
challenging scenarios. Our method obtains state-of-the-art performance on three
challenging real-world datasets (Average Precision@0.5IOU): NPS 0.95, FLDrones
0.75 and AOT 0.80. Apart from its superior performance, it achieves higher
throughput than the prior work. We also demonstrate its deployment capability
on edge-computing devices and usefulness in applications like drone-collision
(encounter) detection. Code:
\url{https://github.com/tusharsangam/TransVisDrone}.
- Abstract(参考訳): 視覚フィードを使ったドローン対ドローン検出は、他のドローンや航空機との衝突を避ける、ドローン攻撃に取り組む、または他のドローンと飛行を調整するといった重要な用途がある。
しかし、既存の手法は計算コストがかかり、非エンドツーエンドの最適化に従い、複雑なマルチステージパイプラインを持つため、リアルタイムドローン飛行のためのエッジデバイスへのデプロイに適さない。
本研究では,計算効率を向上するエンドツーエンドソリューションを提供する,シンプルなyet効率のフレームワークであるTransVisDroneを提案する。
我々は, cspdarknet-53ネットワークを用いて物体関連空間特徴とビデオウィンモデルを学び, ドローン動作の時空間依存性を学習し, 課題シナリオにおけるドローン検出を改善する。
本手法は,3つの挑戦的実世界データセット(平均精度@0.5iou: nps 0.95, fldrones 0.75, aot 0.80。
優れたパフォーマンスとは別に、以前の作業よりも高いスループットを達成する。
また、エッジコンピューティングデバイスへのデプロイメント機能や、ドローン衝突(エンカウンタ)検出などのアプリケーションでの有用性も示す。
コード: \url{https://github.com/tusharsangam/TransVisDrone}
関連論文リスト
- A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - C2FDrone: Coarse-to-Fine Drone-to-Drone Detection using Vision Transformer Networks [23.133250476580038]
衝突回避、敵のドローン対策、捜索救助活動など、さまざまな用途において、視覚に基づくドローンからドローンまでの検出システムは不可欠である。
ドローンの検出には、小さなオブジェクトのサイズ、歪み、リアルタイム処理要求など、ユニークな課題がある。
本稿では,視覚変換器に基づく粗大な検出手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T05:51:21Z) - High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - A3D: Adaptive, Accurate, and Autonomous Navigation for Edge-Assisted
Drones [12.439787085435661]
本稿では,エッジサーバによるドローンナビゲーションフレームワークであるA3Dを提案する。
A3Dは、非適応的なソリューションと比較して、エンドツーエンドのレイテンシを28.06%削減し、フライト距離を27.28%まで拡張することができる。
論文 参考訳(メタデータ) (2023-07-19T10:23:28Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - Lightweight Multi-Drone Detection and 3D-Localization via YOLO [1.284647943889634]
本稿では,実時間複数ドローン検出と3次元位置推定を行う手法を提案し,評価する。
我々は最先端の小さなYOLOv4オブジェクト検出アルゴリズムとステレオ三角測量を用いる。
我々のコンピュータビジョンアプローチは、計算コストのかかるステレオマッチングアルゴリズムを不要にする。
論文 参考訳(メタデータ) (2022-02-18T09:41:23Z) - Track Boosting and Synthetic Data Aided Drone Detection [0.0]
本手法は, YOLOv5モデルを実データおよび合成データで微調整することにより, ドローン検出問題にアプローチする。
以上の結果から,合成データの最適なサブセットで実データを増やすことで,性能が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-24T10:16:27Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。