論文の概要: Multi-Drone based Single Object Tracking with Agent Sharing Network
- arxiv url: http://arxiv.org/abs/2003.06994v1
- Date: Mon, 16 Mar 2020 03:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 03:24:14.247933
- Title: Multi-Drone based Single Object Tracking with Agent Sharing Network
- Title(参考訳): エージェント共有ネットワークを用いた多次元単一物体追跡
- Authors: Pengfei Zhu, Jiayu Zheng, Dawei Du, Longyin Wen, Yiming Sun, Qinghua
Hu
- Abstract要約: マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
- 参考スコア(独自算出の注目度): 74.8198920355117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Drone equipped with cameras can dynamically track the target in the air from
a broader view compared with static cameras or moving sensors over the ground.
However, it is still challenging to accurately track the target using a single
drone due to several factors such as appearance variations and severe
occlusions. In this paper, we collect a new Multi-Drone single Object Tracking
(MDOT) dataset that consists of 92 groups of video clips with 113,918 high
resolution frames taken by two drones and 63 groups of video clips with 145,875
high resolution frames taken by three drones. Besides, two evaluation metrics
are specially designed for multi-drone single object tracking, i.e. automatic
fusion score (AFS) and ideal fusion score (IFS). Moreover, an agent sharing
network (ASNet) is proposed by self-supervised template sharing and view-aware
fusion of the target from multiple drones, which can improve the tracking
accuracy significantly compared with single drone tracking. Extensive
experiments on MDOT show that our ASNet significantly outperforms recent
state-of-the-art trackers.
- Abstract(参考訳): カメラを搭載したドローンは、静止カメラや地上の移動センサーと比較して、より広い視点から空中のターゲットを動的に追跡することができる。
しかし、外観の変化や激しい閉塞など、いくつかの要因により、単一のドローンでターゲットを正確に追跡することは依然として困難である。
本稿では,2台のドローンで113,918フレーム,63台のビデオクリップで115,875台のドローンで115,875台の高解像度フレームで92個のビデオクリップからなる,MDOT(Multi-Drone Single Object Tracking)データセットを新たに収集する。
さらに、マルチdrone single object tracking、すなわちautomatic fusion score (afs) と ideal fusion score (ifs) の2つの評価指標が特別に設計されている。
さらに, エージェント共有ネットワーク (ASNet) は, 複数のドローンからのターゲットの自己教師型テンプレート共有とビューアウェア融合によって提案され, 単一ドローン追跡と比較してトラッキング精度が向上する。
MDOTの大規模な実験により、ASNetは最近の最先端トラッカーよりも大幅に優れています。
関連論文リスト
- RockTrack: A 3D Robust Multi-Camera-Ken Multi-Object Tracking Framework [28.359633046753228]
マルチカメラ検出器のための3次元MOT法であるRockTrackを提案する。
RockTrackには、信頼性の高い前処理モジュールが組み込まれており、信頼性の高い動きと画像の観察を抽出する。
RockTrackは、59.1%のAMOTAを持つnuScenesビジョンのみのトラッキングリーダーボードで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-09-18T07:08:08Z) - DroneMOT: Drone-based Multi-Object Tracking Considering Detection Difficulties and Simultaneous Moving of Drones and Objects [6.449663756698312]
監視カメラなどの静的プラットフォーム上でのマルチオブジェクトトラッキング(MOT)は、大きな進歩を遂げている。
しかし、ドローンのような動的プラットフォームに関しては、従来のMOT手法の有効性は著しく低下している。
本稿では,ドローンによる物体検出の高速化と,小型でぼやけた,隠蔽された物体に対する特徴埋め込みを目的とした,ドローンの高速移動を考慮したDroneMOTを提案する。
論文 参考訳(メタデータ) (2024-07-12T07:18:18Z) - C2FDrone: Coarse-to-Fine Drone-to-Drone Detection using Vision Transformer Networks [23.133250476580038]
衝突回避、敵のドローン対策、捜索救助活動など、さまざまな用途において、視覚に基づくドローンからドローンまでの検出システムは不可欠である。
ドローンの検出には、小さなオブジェクトのサイズ、歪み、リアルタイム処理要求など、ユニークな課題がある。
本稿では,視覚変換器に基づく粗大な検出手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T05:51:21Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - EVPropNet: Detecting Drones By Finding Propellers For Mid-Air Landing
And Following [11.79762223888294]
ドローンプロペラは画像の最も速く動く部分であり、激しい動きのぼけなくして古典的なカメラで直接「見える」ことはできない。
イベントカメラのデータからプロペラを検出するために、EVPropNetと呼ばれるディープニューラルネットワークをトレーニングする。
当社のネットワークには, (a) 目印のないドローンの追跡と追跡, (b) ニアフーバードローンへの着陸という,2つの応用例がある。
論文 参考訳(メタデータ) (2021-06-29T01:16:01Z) - Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark [97.07865343576361]
DroneCrowdという新しいドローンキャプチャ型大規模データセットによるベンチマークを構築した。
私たちは4800万人の頭といくつかのビデオレベルの属性を持つ20,800人のトラジェクタに注釈を付けます。
我々は、密集した群衆の物体の検出、追跡、数え上げを行うための強力なベースラインとして、Space-Time Neighbor-Aware Network (STNNet)を設計する。
論文 参考訳(メタデータ) (2021-05-06T04:46:14Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - DroTrack: High-speed Drone-based Object Tracking Under Uncertainty [0.23204178451683263]
DroTrackは、ドローンがキャプチャしたビデオシーケンスのための高速なビジュアル単一オブジェクト追跡フレームワークである。
ファジィC平均に基づく効果的なオブジェクトセグメンテーションを実装した。
また、幾何角運動を利用して信頼度の高い物体スケールを推定する。
論文 参考訳(メタデータ) (2020-05-02T13:16:16Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。