論文の概要: BACTrack: Building Appearance Collection for Aerial Tracking
- arxiv url: http://arxiv.org/abs/2312.06136v1
- Date: Mon, 11 Dec 2023 05:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 16:54:12.887709
- Title: BACTrack: Building Appearance Collection for Aerial Tracking
- Title(参考訳): BACTrack: 航空追跡のための外観コレクションの構築
- Authors: Xincong Liu, Tingfa Xu, Ying Wang, Zhinong Yu, Xiaoying Yuan, Haolin
Qin, and Jianan Li
- Abstract要約: Appearance Collection Trackingの構築 オンラインでターゲットテンプレートの動的コレクションを構築し、堅牢なトラッキングを実現するために効率的なマルチテンプレートマッチングを実行する。
BACTrackは、4つの挑戦的な空中トラッキングベンチマークで最高パフォーマンスを達成し、1つのGPU上で87FPSを超える驚くべきスピードを維持している。
- 参考スコア(独自算出の注目度): 13.785254511683966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Siamese network-based trackers have shown remarkable success in aerial
tracking. Most previous works, however, usually perform template matching only
between the initial template and the search region and thus fail to deal with
rapidly changing targets that often appear in aerial tracking. As a remedy,
this work presents Building Appearance Collection Tracking (BACTrack). This
simple yet effective tracking framework builds a dynamic collection of target
templates online and performs efficient multi-template matching to achieve
robust tracking. Specifically, BACTrack mainly comprises a Mixed-Temporal
Transformer (MTT) and an appearance discriminator. The former is responsible
for efficiently building relationships between the search region and multiple
target templates in parallel through a mixed-temporal attention mechanism. At
the same time, the appearance discriminator employs an online adaptive
template-update strategy to ensure that the collected multiple templates remain
reliable and diverse, allowing them to closely follow rapid changes in the
target's appearance and suppress background interference during tracking.
Extensive experiments show that our BACTrack achieves top performance on four
challenging aerial tracking benchmarks while maintaining an impressive speed of
over 87 FPS on a single GPU. Speed tests on embedded platforms also validate
our potential suitability for deployment on UAV platforms.
- Abstract(参考訳): siamese networkベースのトラッカーは、空中追跡で顕著な成功を収めている。
しかし、ほとんどの以前の作品は、通常、初期テンプレートと検索領域の間でのみテンプレートマッチングを実行するため、空中追跡でしばしば現れる急速に変化するターゲットを扱うことができない。
対策として、この研究はBuilding Appearance Collection Tracking (BACTrack)を提示する。
このシンプルで効果的なトラッキングフレームワークは、ターゲットテンプレートの動的コレクションをオンラインで構築し、堅牢なトラッキングを実現するために効率的なマルチテンプレートマッチングを実行する。
特に、bactrackは、主に混合時変圧器(mtt)と外観判別器を含む。
前者は、複合時間アテンション機構により、検索領域と複数のターゲットテンプレートの関係を並列に効率的に構築する。
同時に、外観判別器はオンライン適応テンプレート更新戦略を採用し、収集された複数のテンプレートが信頼性と多様性を保ち、ターゲットの外観の急速な変化を追従し、追跡中の背景干渉を抑制することができる。
大規模な実験により、我々のBACTrackは、単一のGPU上で87FPSを超える驚くべきスピードを維持しながら、4つの挑戦的な空中トラッキングベンチマークで最高パフォーマンスを達成した。
組み込みプラットフォームでのスピードテストは、UAVプラットフォームへのデプロイに適した可能性も検証します。
関連論文リスト
- STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - Track Anything Rapter(TAR) [0.0]
Track Anything Rapter (TAR)は、ユーザが提供するマルチモーダルクエリに基づいて、関心のあるオブジェクトを検出し、セグメンテーションし、追跡するように設計されている。
TARは、DINO、CLIP、SAMといった最先端の事前訓練モデルを使用して、クエリされたオブジェクトの相対的なポーズを推定する。
本稿では,これらの基礎モデルとカスタム高レベル制御アルゴリズムの統合によって,高度に安定かつ高精度なトラッキングシステムを実現する方法を紹介する。
論文 参考訳(メタデータ) (2024-05-19T19:51:41Z) - Autoregressive Queries for Adaptive Tracking with Spatio-TemporalTransformers [55.46413719810273]
リッチ時間情報は、視覚追跡における複雑なターゲットの出現に不可欠である。
提案手法は,6つの一般的な追跡ベンチマークにおいてトラッカーの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-15T02:39:26Z) - Multi-step Temporal Modeling for UAV Tracking [14.687636301587045]
MT-Track(MT-Track)は,UAV追跡の効率化を目的とした,効率的な多段階時間モデリングフレームワークである。
我々はテンプレートと検索領域の特徴間の相互作用を動的に評価するユニークな時間相関モジュールを公表する。
トラッキングシーケンスにおける時間的知識をモデル化することにより,過去のフレームと現在のフレームの相関マップを洗練するための相互変換モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-07T09:48:13Z) - ACTrack: Adding Spatio-Temporal Condition for Visual Object Tracking [0.5371337604556311]
視覚的物体追跡(VOT)において,物体の時間的関係を効果的にモデル化することが重要な課題である
既存の手法は外観に基づく類似性や長期関係モデリングによって追跡され、連続するフレーム間の時間的コンテキストは容易に見過ごされてしまう。
本稿では,大規模な記憶条件を持つ付加的前時間追跡フレームワークであるACTrackについて述べる。このフレームワークは,そのパラメータを凍結することにより,トレーニング済みバックボーンの品質と性能を保ち,トラッキングにおける時間関係をモデル化するためのトレーニング可能な軽量付加性ネットを作成する。
我々は空間的特徴と時間的順序の整合性を確保するための付加的なシアム畳み込みネットワークを設計する。
論文 参考訳(メタデータ) (2024-02-27T07:34:08Z) - Correlation-Embedded Transformer Tracking: A Single-Branch Framework [69.0798277313574]
本稿では,トランスにインスパイアされた新しい単一ブランチ追跡フレームワークを提案する。
Siameseのような特徴抽出とは異なり、トラッカーは機能ネットワークの複数の層にクロスイメージ特徴相関を深く埋め込む。
出力機能は、追加の相関ステップなしでターゲット位置を予測するために直接使用できる。
論文 参考訳(メタデータ) (2024-01-23T13:20:57Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Unsupervised Multiple Person Tracking using AutoEncoder-Based Lifted
Multicuts [11.72025865314187]
最小限の視覚的特徴とリフトマルチカットに基づく教師なし多重物体追跡手法を提案する。
提案したアノテーションを使わずにトレーニングされているにもかかわらず,我々のモデルは,歩行者追跡のための挑戦的なMOTベンチマークにおいて,競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2020-02-04T09:42:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。