論文の概要: HIPTrack: Visual Tracking with Historical Prompts
- arxiv url: http://arxiv.org/abs/2311.02072v2
- Date: Tue, 2 Apr 2024 09:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 12:32:59.940713
- Title: HIPTrack: Visual Tracking with Historical Prompts
- Title(参考訳): HIPTrack: 歴史的プロンプトによるビジュアルトラッキング
- Authors: Wenrui Cai, Qingjie Liu, Yunhong Wang,
- Abstract要約: シームズパラダイムに忠実かつ更新された履歴情報を追従するトラッカーを提供することにより,大幅な性能向上が達成できることを示す。
我々は,履歴プロンプトネットワークに基づくHIPTrackと呼ばれる新しいトラッカーを構築し,モデル全体を再トレーニングすることなく,大幅な性能向上を実現した。
- 参考スコア(独自算出の注目度): 37.85656595341516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trackers that follow Siamese paradigm utilize similarity matching between template and search region features for tracking. Many methods have been explored to enhance tracking performance by incorporating tracking history to better handle scenarios involving target appearance variations such as deformation and occlusion. However, the utilization of historical information in existing methods is insufficient and incomprehensive, which typically requires repetitive training and introduces a large amount of computation. In this paper, we show that by providing a tracker that follows Siamese paradigm with precise and updated historical information, a significant performance improvement can be achieved with completely unchanged parameters. Based on this, we propose a historical prompt network that uses refined historical foreground masks and historical visual features of the target to provide comprehensive and precise prompts for the tracker. We build a novel tracker called HIPTrack based on the historical prompt network, which achieves considerable performance improvements without the need to retrain the entire model. We conduct experiments on seven datasets and experimental results demonstrate that our method surpasses the current state-of-the-art trackers on LaSOT, LaSOText, GOT-10k and NfS. Furthermore, the historical prompt network can seamlessly integrate as a plug-and-play module into existing trackers, providing performance enhancements. The source code is available at https://github.com/WenRuiCai/HIPTrack.
- Abstract(参考訳): シームズパラダイムに従うトラッカーは、追跡のためにテンプレートと検索領域の機能の類似性マッチングを利用する。
多くの手法が追跡履歴を取り入れて,変形や閉塞といったターゲットの外観変化を含むシナリオをよりよく扱えるようにすることで,追跡性能を向上させるために研究されている。
しかし、既存の手法における履歴情報の利用は不十分であり、理解できないため、通常は反復的な訓練を必要とし、大量の計算を導入する。
本稿では,シームズパラダイムに忠実かつ更新された履歴情報を追従するトラッカーを提供することにより,完全に変化しないパラメータで大幅な性能向上を実現することができることを示す。
そこで本稿では, 歴史的前景マスクとターゲットの歴史的視覚特徴を利用して, トラッカーの包括的かつ正確なプロンプトを提供する歴史的プロンプトネットワークを提案する。
我々は,履歴プロンプトネットワークに基づくHIPTrackと呼ばれる新しいトラッカーを構築し,モデル全体を再トレーニングすることなく,大幅な性能向上を実現した。
提案手法は,LaSOT, LaSOText, GOT-10k, NfSにおける現在の最先端トラッカーを超えることを示す。
さらに、過去のプロンプトネットワークは、既存のトラッカーにプラグイン・アンド・プレイモジュールとしてシームレスに統合し、パフォーマンスを向上することができる。
ソースコードはhttps://github.com/WenRuiCai/HIPTrack.comで入手できる。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - ACTrack: Adding Spatio-Temporal Condition for Visual Object Tracking [0.5371337604556311]
視覚的物体追跡(VOT)において,物体の時間的関係を効果的にモデル化することが重要な課題である
既存の手法は外観に基づく類似性や長期関係モデリングによって追跡され、連続するフレーム間の時間的コンテキストは容易に見過ごされてしまう。
本稿では,大規模な記憶条件を持つ付加的前時間追跡フレームワークであるACTrackについて述べる。このフレームワークは,そのパラメータを凍結することにより,トレーニング済みバックボーンの品質と性能を保ち,トラッキングにおける時間関係をモデル化するためのトレーニング可能な軽量付加性ネットを作成する。
我々は空間的特徴と時間的順序の整合性を確保するための付加的なシアム畳み込みネットワークを設計する。
論文 参考訳(メタデータ) (2024-02-27T07:34:08Z) - Revisiting Color-Event based Tracking: A Unified Network, Dataset, and
Metric [53.88188265943762]
上記の機能を同時に実現したCEUTrack(Color-Event Unified Tracking)のためのシングルステージバックボーンネットワークを提案する。
提案するCEUTrackはシンプルで,効率的で,75FPS以上を達成し,新たなSOTA性能を実現している。
論文 参考訳(メタデータ) (2022-11-20T16:01:31Z) - Towards Sequence-Level Training for Visual Tracking [60.95799261482857]
本研究は、強化学習に基づく視覚追跡のためのシーケンスレベルのトレーニング戦略を導入する。
4つの代表的な追跡モデル、SiamRPN++、SiamAttn、TransT、TrDiMPは、提案手法をトレーニングに取り入れることで一貫して改善されている。
論文 参考訳(メタデータ) (2022-08-11T13:15:36Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - DeepMix: Online Auto Data Augmentation for Robust Visual Object Tracking [11.92631259817911]
DeepMixは、過去のサンプルの埋め込みを入力として、オンラインで拡張埋め込みを生成する。
MixNetは、オンラインデータ拡張をワンステップで実行するためのオフライントレーニングネットワークです。
論文 参考訳(メタデータ) (2021-04-23T13:37:47Z) - STMTrack: Template-free Visual Tracking with Space-time Memory Networks [42.06375415765325]
テンプレート更新機構を持つ既存のトラッカーは、競争性能を達成するために、時間を要する数値最適化と複雑な手設計戦略に依存している。
本稿では,ターゲットに関する歴史的情報を十分に活用することのできる,時空メモリネットワーク上に構築した新しいトラッキングフレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
論文 参考訳(メタデータ) (2021-04-01T08:10:56Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。