論文の概要: TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos
- arxiv url: http://arxiv.org/abs/2210.08423v2
- Date: Sat, 26 Aug 2023 00:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 01:34:39.028666
- Title: TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos
- Title(参考訳): TransVisDrone: 空中ビデオにおける視覚に基づくドローン間検出のための時空間変換器
- Authors: Tushar Sangam, Ishan Rajendrakumar Dave, Waqas Sultani, Mubarak Shah
- Abstract要約: 視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
- 参考スコア(独自算出の注目度): 57.92385818430939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Drone-to-drone detection using visual feed has crucial applications, such as
detecting drone collisions, detecting drone attacks, or coordinating flight
with other drones. However, existing methods are computationally costly, follow
non-end-to-end optimization, and have complex multi-stage pipelines, making
them less suitable for real-time deployment on edge devices. In this work, we
propose a simple yet effective framework, \textit{TransVisDrone}, that provides
an end-to-end solution with higher computational efficiency. We utilize
CSPDarkNet-53 network to learn object-related spatial features and VideoSwin
model to improve drone detection in challenging scenarios by learning
spatio-temporal dependencies of drone motion. Our method achieves
state-of-the-art performance on three challenging real-world datasets (Average
Precision@0.5IOU): NPS 0.95, FLDrones 0.75, and AOT 0.80, and a higher
throughput than previous methods. We also demonstrate its deployment capability
on edge devices and its usefulness in detecting drone-collision (encounter).
Project: \url{https://tusharsangam.github.io/TransVisDrone-project-page/}.
- Abstract(参考訳): 視覚フィードを用いたドローン対ドローン検出には、ドローン衝突の検出、ドローン攻撃の検出、他のドローンとの飛行調整など、重要な応用がある。
しかし、既存の手法は計算コストがかかり、非エンドツーエンドの最適化に従い、複雑なマルチステージパイプラインを持つため、エッジデバイスでのリアルタイムデプロイメントには適さない。
本稿では,計算効率の高いエンドツーエンドソリューションを提供する,単純かつ効率的なフレームワークである \textit{transvisdrone}を提案する。
我々はCSPDarkNet-53ネットワークを用いてオブジェクト関連空間特徴とVideoSwinモデルを学習し、ドローンの動きの時空間依存性を学習することで、挑戦的なシナリオにおけるドローン検出を改善する。
nps 0.95, fldrones 0.75, aot 0.80の3つの挑戦的実世界のデータセット(平均精度@0.5iou)において最先端の性能を達成し, 従来の手法よりも高いスループットを実現する。
また,エッジデバイスへの展開能力と,ドローンコラボレーション(encounter)検出における有用性を示す。
プロジェクト: \url{https://tusharsangam.github.io/transvisdrone-project-page/}
関連論文リスト
- C2FDrone: Coarse-to-Fine Drone-to-Drone Detection using Vision Transformer Networks [23.133250476580038]
衝突回避、敵のドローン対策、捜索救助活動など、さまざまな用途において、視覚に基づくドローンからドローンまでの検出システムは不可欠である。
ドローンの検出には、小さなオブジェクトのサイズ、歪み、リアルタイム処理要求など、ユニークな課題がある。
本稿では,視覚変換器に基づく粗大な検出手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T05:51:21Z) - High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - A3D: Adaptive, Accurate, and Autonomous Navigation for Edge-Assisted
Drones [12.439787085435661]
本稿では,エッジサーバによるドローンナビゲーションフレームワークであるA3Dを提案する。
A3Dは、非適応的なソリューションと比較して、エンドツーエンドのレイテンシを28.06%削減し、フライト距離を27.28%まで拡張することができる。
論文 参考訳(メタデータ) (2023-07-19T10:23:28Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - Lightweight Multi-Drone Detection and 3D-Localization via YOLO [1.284647943889634]
本稿では,実時間複数ドローン検出と3次元位置推定を行う手法を提案し,評価する。
我々は最先端の小さなYOLOv4オブジェクト検出アルゴリズムとステレオ三角測量を用いる。
我々のコンピュータビジョンアプローチは、計算コストのかかるステレオマッチングアルゴリズムを不要にする。
論文 参考訳(メタデータ) (2022-02-18T09:41:23Z) - Track Boosting and Synthetic Data Aided Drone Detection [0.0]
本手法は, YOLOv5モデルを実データおよび合成データで微調整することにより, ドローン検出問題にアプローチする。
以上の結果から,合成データの最適なサブセットで実データを増やすことで,性能が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-24T10:16:27Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。