論文の概要: Target-aware Bidirectional Fusion Transformer for Aerial Object Tracking
- arxiv url: http://arxiv.org/abs/2503.09951v1
- Date: Thu, 13 Mar 2025 01:53:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:53:11.811112
- Title: Target-aware Bidirectional Fusion Transformer for Aerial Object Tracking
- Title(参考訳): 空中物体追跡のためのターゲット対応双方向核融合変圧器
- Authors: Xinglong Sun, Haijiang Sun, Shan Jiang, Jiacheng Wang, Jiasong Wang,
- Abstract要約: UAV追跡のための新しい目標対応双方向核融合変換器(BFTrans)を提案する。
我々の手法は他の最先端トラッカーを超え、組込みプラットフォーム上で平均30.5 FPSで実行することができる。
- 参考スコア(独自算出の注目度): 4.199091332200661
- License:
- Abstract: The trackers based on lightweight neural networks have achieved great success in the field of aerial remote sensing, most of which aggregate multi-stage deep features to lift the tracking quality. However, existing algorithms usually only generate single-stage fusion features for state decision, which ignore that diverse kinds of features are required for identifying and locating the object, limiting the robustness and precision of tracking. In this paper, we propose a novel target-aware Bidirectional Fusion transformer (BFTrans) for UAV tracking. Specifically, we first present a two-stream fusion network based on linear self and cross attentions, which can combine the shallow and the deep features from both forward and backward directions, providing the adjusted local details for location and global semantics for recognition. Besides, a target-aware positional encoding strategy is designed for the above fusion model, which is helpful to perceive the object-related attributes during the fusion phase. Finally, the proposed method is evaluated on several popular UAV benchmarks, including UAV-123, UAV20L and UAVTrack112. Massive experimental results demonstrate that our approach can exceed other state-of-the-art trackers and run with an average speed of 30.5 FPS on embedded platform, which is appropriate for practical drone deployments.
- Abstract(参考訳): 軽量ニューラルネットワークに基づくトラッカーは、空中リモートセンシングの分野で大きな成功を収めており、そのほとんどは、トラッキング品質を高めるために、多段階の深い特徴を集約している。
しかし、既存のアルゴリズムは通常、状態決定のための単一ステージの融合機能しか生成しないため、オブジェクトの識別と位置決めには様々な種類の機能が必要であり、追跡の堅牢性と精度が制限される。
本稿では,UAV追跡のための新しい目標対応双方向核融合トランス(BFTrans)を提案する。
具体的には、まず、線形自己と横断的注意に基づく2ストリームの融合ネットワークを提示し、その浅層と深部の特徴を前方方向と後方方向の両方から組み合わせ、位置とグローバルなセマンティクスの調整された局所的詳細を提供する。
さらに、上記の融合モデルに対して、目標認識位置符号化戦略を設計し、融合フェーズにおけるオブジェクト関連属性の知覚に役立てる。
最後に,UAV-123,UAV20L,UAVTrack112などのUAVベンチマークを用いて提案手法の評価を行った。
大規模実験により,本手法は他の最先端トラッカーを超え,組込みプラットフォーム上で平均30.5FPSの速度で動作可能であることが示された。
関連論文リスト
- SFTrack: A Robust Scale and Motion Adaptive Algorithm for Tracking Small and Fast Moving Objects [2.9803250365852443]
本稿では,無人航空機(UAV)映像における多物体追跡の問題に対処する。
交通監視システムや警察によるリアルタイム容疑者追跡など、様々なUAVアプリケーションにおいて重要な役割を果たしている。
低信頼度検出から対象物体の追跡を開始する新しい追跡戦略を提案する。
論文 参考訳(メタデータ) (2024-10-26T05:09:20Z) - SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [59.868772767818975]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、集約である。
様々なラベル付き環境下での多目的オブジェクトデータセットに対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - Multi-Modal UAV Detection, Classification and Tracking Algorithm -- Technical Report for CVPR 2024 UG2 Challenge [20.459377705070043]
本報告では, CVPR 2024 UAV追跡・姿勢推定チャレンジにおける課題であるUG2+の初当選モデルについて述べる。
高精度なUAV分類・追跡のためのマルチモーダルなUAV検出・分類・3次元追跡手法を提案する。
本システムでは,最先端の分類手法と高度な後処理手順を統合し,精度と堅牢性を向上する。
論文 参考訳(メタデータ) (2024-05-26T07:21:18Z) - An Improved End-to-End Multi-Target Tracking Method Based on Transformer
Self-Attention [24.17627001939523]
本研究では,エンドツーエンドのマルチターゲット追跡アルゴリズムを提案する。
変換器のエンコーダ・デコーダ構造の自己検出機構に基づいてマルチビューのマルチスケールシーンに適応する。
論文 参考訳(メタデータ) (2022-11-11T04:58:46Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Trajectory Design for UAV-Based Internet-of-Things Data Collection: A
Deep Reinforcement Learning Approach [93.67588414950656]
本稿では,無人航空機(UAV)による3D環境におけるIoT(Internet-of-Things)システムについて検討する。
本稿では,TD3-TDCTMアルゴリズムの完成時間最小化のためのトラジェクトリ設計を提案する。
シミュレーションの結果,従来の3つの非学習ベースライン法よりもTD3-TDCTMアルゴリズムの方が優れていることが示された。
論文 参考訳(メタデータ) (2021-07-23T03:33:29Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - Autonomous and cooperative design of the monitor positions for a team of
UAVs to maximize the quantity and quality of detected objects [0.5801044612920815]
本稿では、完全に未知の地形内にUAVの群れを配置する問題に取り組む。
YOLOv3と複製対象を識別するシステムを用いて、各UAVの構成に1つのスコアを割り当てた。
予め定義されたスコアを最適化できる新しいナビゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:52:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。