論文の概要: STMTrack: Template-free Visual Tracking with Space-time Memory Networks
- arxiv url: http://arxiv.org/abs/2104.00324v2
- Date: Fri, 2 Apr 2021 09:02:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 10:29:12.477543
- Title: STMTrack: Template-free Visual Tracking with Space-time Memory Networks
- Title(参考訳): STMTrack: 時空間メモリネットワークによるテンプレートなしのビジュアルトラッキング
- Authors: Zhihong Fu, Qingjie Liu, Zehua Fu, Yunhong Wang
- Abstract要約: テンプレート更新機構を持つ既存のトラッカーは、競争性能を達成するために、時間を要する数値最適化と複雑な手設計戦略に依存している。
本稿では,ターゲットに関する歴史的情報を十分に活用することのできる,時空メモリネットワーク上に構築した新しいトラッキングフレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
- 参考スコア(独自算出の注目度): 42.06375415765325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Boosting performance of the offline trained siamese trackers is getting
harder nowadays since the fixed information of the template cropped from the
first frame has been almost thoroughly mined, but they are poorly capable of
resisting target appearance changes. Existing trackers with template updating
mechanisms rely on time-consuming numerical optimization and complex
hand-designed strategies to achieve competitive performance, hindering them
from real-time tracking and practical applications. In this paper, we propose a
novel tracking framework built on top of a space-time memory network that is
competent to make full use of historical information related to the target for
better adapting to appearance variations during tracking. Specifically, a novel
memory mechanism is introduced, which stores the historical information of the
target to guide the tracker to focus on the most informative regions in the
current frame. Furthermore, the pixel-level similarity computation of the
memory network enables our tracker to generate much more accurate bounding
boxes of the target. Extensive experiments and comparisons with many
competitive trackers on challenging large-scale benchmarks, OTB-2015,
TrackingNet, GOT-10k, LaSOT, UAV123, and VOT2018, show that, without bells and
whistles, our tracker outperforms all previous state-of-the-art real-time
methods while running at 37 FPS. The code is available at
https://github.com/fzh0917/STMTrack.
- Abstract(参考訳): オフライントレーニングされたシアームトラッカーの性能向上は,第1フレームから切り出されたテンプレートの固定情報がほぼ完全に採掘されているため,近年は難しくなっているが,ターゲットの外観変化に抵抗する能力は乏しい。
テンプレート更新機構を持つ既存のトラッカーは、時間を要する数値最適化と複雑な手設計の戦略を頼りに、競合する性能を達成する。
本稿では,標的に関する歴史的情報を十分に活用し,追跡時の外観変化への適応性を高めることのできる,時空間記憶ネットワーク上に構築した新たな追跡フレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
さらに、メモリネットワークのピクセルレベルの類似度計算により、ターゲットのバウンディングボックスをより正確に生成することができる。
otb-2015、trackingnet、got-10k、lasot、uav123、vot2018など、多くの競合トラッカとの広範な実験と比較によって、37fpsで動作中の従来の最先端のリアルタイムメソッドよりも優れています。
コードはhttps://github.com/fzh0917/stmtrackで入手できる。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - HIPTrack: Visual Tracking with Historical Prompts [37.85656595341516]
シームズパラダイムに忠実かつ更新された履歴情報を追従するトラッカーを提供することにより,大幅な性能向上が達成できることを示す。
我々は,履歴プロンプトネットワークに基づくHIPTrackと呼ばれる新しいトラッカーを構築し,モデル全体を再トレーニングすることなく,大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2023-11-03T17:54:59Z) - Target-Aware Tracking with Long-term Context Attention [8.20858704675519]
長期的コンテキストアテンション(LCA)モジュールは、長期的フレームからターゲットとそのコンテキストについて広範な情報融合を行うことができる。
LCAは、類似したオブジェクトや複雑な背景の干渉を排除するために、以前のフレームからターゲット状態を使用する。
トラッカーは, 71.1%のAUC, 89.3%のNP, 73.0%のAOをLaSOT, TrackingNet, GOT-10kで実現した。
論文 参考訳(メタデータ) (2023-02-27T14:40:58Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - DMV: Visual Object Tracking via Part-level Dense Memory and Voting-based
Retrieval [61.366644088881735]
DMVと呼ばれる部分レベル高密度メモリと投票ベースの検索による新しいメモリベースのトラッカーを提案する。
また,メモリの信頼できない情報をフィルタリングする新たな投票機構を提案する。
論文 参考訳(メタデータ) (2020-03-20T10:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。