論文の概要: Multi-Drone based Single Object Tracking with Agent Sharing Network
- arxiv url: http://arxiv.org/abs/2003.06994v1
- Date: Mon, 16 Mar 2020 03:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 03:24:14.247933
- Title: Multi-Drone based Single Object Tracking with Agent Sharing Network
- Title(参考訳): エージェント共有ネットワークを用いた多次元単一物体追跡
- Authors: Pengfei Zhu, Jiayu Zheng, Dawei Du, Longyin Wen, Yiming Sun, Qinghua
Hu
- Abstract要約: マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
- 参考スコア(独自算出の注目度): 74.8198920355117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Drone equipped with cameras can dynamically track the target in the air from
a broader view compared with static cameras or moving sensors over the ground.
However, it is still challenging to accurately track the target using a single
drone due to several factors such as appearance variations and severe
occlusions. In this paper, we collect a new Multi-Drone single Object Tracking
(MDOT) dataset that consists of 92 groups of video clips with 113,918 high
resolution frames taken by two drones and 63 groups of video clips with 145,875
high resolution frames taken by three drones. Besides, two evaluation metrics
are specially designed for multi-drone single object tracking, i.e. automatic
fusion score (AFS) and ideal fusion score (IFS). Moreover, an agent sharing
network (ASNet) is proposed by self-supervised template sharing and view-aware
fusion of the target from multiple drones, which can improve the tracking
accuracy significantly compared with single drone tracking. Extensive
experiments on MDOT show that our ASNet significantly outperforms recent
state-of-the-art trackers.
- Abstract(参考訳): カメラを搭載したドローンは、静止カメラや地上の移動センサーと比較して、より広い視点から空中のターゲットを動的に追跡することができる。
しかし、外観の変化や激しい閉塞など、いくつかの要因により、単一のドローンでターゲットを正確に追跡することは依然として困難である。
本稿では,2台のドローンで113,918フレーム,63台のビデオクリップで115,875台のドローンで115,875台の高解像度フレームで92個のビデオクリップからなる,MDOT(Multi-Drone Single Object Tracking)データセットを新たに収集する。
さらに、マルチdrone single object tracking、すなわちautomatic fusion score (afs) と ideal fusion score (ifs) の2つの評価指標が特別に設計されている。
さらに, エージェント共有ネットワーク (ASNet) は, 複数のドローンからのターゲットの自己教師型テンプレート共有とビューアウェア融合によって提案され, 単一ドローン追跡と比較してトラッキング精度が向上する。
MDOTの大規模な実験により、ASNetは最近の最先端トラッカーよりも大幅に優れています。
関連論文リスト
- TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - LMGP: Lifted Multicut Meets Geometry Projections for Multi-Camera
Multi-Object Tracking [42.87953709286856]
マルチカメラ マルチオブジェクト追跡は、現実のアプリケーションにおいて優れた性能を持つため、コンピュータビジョン分野において現在注目されている。
本稿では,空間時空間昇降型マルチカット定式化に基づく数学的にエレガントなマルチカメラ・マルチオブジェクト追跡手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T14:09:47Z) - EVPropNet: Detecting Drones By Finding Propellers For Mid-Air Landing
And Following [11.79762223888294]
ドローンプロペラは画像の最も速く動く部分であり、激しい動きのぼけなくして古典的なカメラで直接「見える」ことはできない。
イベントカメラのデータからプロペラを検出するために、EVPropNetと呼ばれるディープニューラルネットワークをトレーニングする。
当社のネットワークには, (a) 目印のないドローンの追跡と追跡, (b) ニアフーバードローンへの着陸という,2つの応用例がある。
論文 参考訳(メタデータ) (2021-06-29T01:16:01Z) - Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark [97.07865343576361]
DroneCrowdという新しいドローンキャプチャ型大規模データセットによるベンチマークを構築した。
私たちは4800万人の頭といくつかのビデオレベルの属性を持つ20,800人のトラジェクタに注釈を付けます。
我々は、密集した群衆の物体の検出、追跡、数え上げを行うための強力なベースラインとして、Space-Time Neighbor-Aware Network (STNNet)を設計する。
論文 参考訳(メタデータ) (2021-05-06T04:46:14Z) - Drone LAMS: A Drone-based Face Detection Dataset with Large Angles and
Many Scenarios [2.4378845585726903]
提案されたデータセットは、43k以上のアノテーションと、90degから90degの範囲でピッチまたはヨー角の4.0kの画像を含む261本のビデオをキャプチャした。
ドローンLAMSは、現在利用可能なドローンベースの顔検出データセットよりも、検出性能において大幅に改善された。
論文 参考訳(メタデータ) (2020-11-16T02:26:05Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - DroTrack: High-speed Drone-based Object Tracking Under Uncertainty [0.23204178451683263]
DroTrackは、ドローンがキャプチャしたビデオシーケンスのための高速なビジュアル単一オブジェクト追跡フレームワークである。
ファジィC平均に基づく効果的なオブジェクトセグメンテーションを実装した。
また、幾何角運動を利用して信頼度の高い物体スケールを推定する。
論文 参考訳(メタデータ) (2020-05-02T13:16:16Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。