論文の概要: STMTrack: Template-free Visual Tracking with Space-time Memory Networks
- arxiv url: http://arxiv.org/abs/2104.00324v2
- Date: Fri, 2 Apr 2021 09:02:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 10:29:12.477543
- Title: STMTrack: Template-free Visual Tracking with Space-time Memory Networks
- Title(参考訳): STMTrack: 時空間メモリネットワークによるテンプレートなしのビジュアルトラッキング
- Authors: Zhihong Fu, Qingjie Liu, Zehua Fu, Yunhong Wang
- Abstract要約: テンプレート更新機構を持つ既存のトラッカーは、競争性能を達成するために、時間を要する数値最適化と複雑な手設計戦略に依存している。
本稿では,ターゲットに関する歴史的情報を十分に活用することのできる,時空メモリネットワーク上に構築した新しいトラッキングフレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
- 参考スコア(独自算出の注目度): 42.06375415765325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Boosting performance of the offline trained siamese trackers is getting
harder nowadays since the fixed information of the template cropped from the
first frame has been almost thoroughly mined, but they are poorly capable of
resisting target appearance changes. Existing trackers with template updating
mechanisms rely on time-consuming numerical optimization and complex
hand-designed strategies to achieve competitive performance, hindering them
from real-time tracking and practical applications. In this paper, we propose a
novel tracking framework built on top of a space-time memory network that is
competent to make full use of historical information related to the target for
better adapting to appearance variations during tracking. Specifically, a novel
memory mechanism is introduced, which stores the historical information of the
target to guide the tracker to focus on the most informative regions in the
current frame. Furthermore, the pixel-level similarity computation of the
memory network enables our tracker to generate much more accurate bounding
boxes of the target. Extensive experiments and comparisons with many
competitive trackers on challenging large-scale benchmarks, OTB-2015,
TrackingNet, GOT-10k, LaSOT, UAV123, and VOT2018, show that, without bells and
whistles, our tracker outperforms all previous state-of-the-art real-time
methods while running at 37 FPS. The code is available at
https://github.com/fzh0917/STMTrack.
- Abstract(参考訳): オフライントレーニングされたシアームトラッカーの性能向上は,第1フレームから切り出されたテンプレートの固定情報がほぼ完全に採掘されているため,近年は難しくなっているが,ターゲットの外観変化に抵抗する能力は乏しい。
テンプレート更新機構を持つ既存のトラッカーは、時間を要する数値最適化と複雑な手設計の戦略を頼りに、競合する性能を達成する。
本稿では,標的に関する歴史的情報を十分に活用し,追跡時の外観変化への適応性を高めることのできる,時空間記憶ネットワーク上に構築した新たな追跡フレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
さらに、メモリネットワークのピクセルレベルの類似度計算により、ターゲットのバウンディングボックスをより正確に生成することができる。
otb-2015、trackingnet、got-10k、lasot、uav123、vot2018など、多くの競合トラッカとの広範な実験と比較によって、37fpsで動作中の従来の最先端のリアルタイムメソッドよりも優れています。
コードはhttps://github.com/fzh0917/stmtrackで入手できる。
関連論文リスト
- BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in
Bird's-Eye View [59.283604507093116]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
我々は,Bird's-Eye View(BEV)におけるトラッキングを行う,シンプルだが効果的なベースラインであるBEVTrackを提案する。
3つの大規模データセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Target-Aware Tracking with Long-term Context Attention [8.20858704675519]
長期的コンテキストアテンション(LCA)モジュールは、長期的フレームからターゲットとそのコンテキストについて広範な情報融合を行うことができる。
LCAは、類似したオブジェクトや複雑な背景の干渉を排除するために、以前のフレームからターゲット状態を使用する。
トラッカーは, 71.1%のAUC, 89.3%のNP, 73.0%のAOをLaSOT, TrackingNet, GOT-10kで実現した。
論文 参考訳(メタデータ) (2023-02-27T14:40:58Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Multi-Object Tracking and Segmentation with a Space-Time Memory Network [12.043574473965318]
トラックレットを関連づける新しいメモリベース機構に基づく多目的追跡とセグメンテーションの手法を提案する。
提案するトラッカーであるMeNToSは、特に長期データアソシエーションの問題に対処する。
論文 参考訳(メタデータ) (2021-10-21T17:13:17Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - High-Performance Long-Term Tracking with Meta-Updater [75.80564183653274]
短期的追跡よりも実用的に近いため、長期的視覚追跡が注目されている。
ほとんどのトップランクの長期トラッカーはオフラインでトレーニングされたSiameseアーキテクチャを採用しているため、オンライン更新による短期トラッカーの大きな進歩の恩恵を受けることはできない。
我々は、重要な問題に対処するために、オフラインでトレーニングされた新しいメタ更新器を提案する: トラッカーは、現在のフレームで更新する準備ができているか?
論文 参考訳(メタデータ) (2020-04-01T09:29:23Z) - DMV: Visual Object Tracking via Part-level Dense Memory and Voting-based
Retrieval [61.366644088881735]
DMVと呼ばれる部分レベル高密度メモリと投票ベースの検索による新しいメモリベースのトラッカーを提案する。
また,メモリの信頼できない情報をフィルタリングする新たな投票機構を提案する。
論文 参考訳(メタデータ) (2020-03-20T10:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。