論文の概要: Learning Historical Status Prompt for Accurate and Robust Visual
Tracking
- arxiv url: http://arxiv.org/abs/2311.02072v1
- Date: Fri, 3 Nov 2023 17:54:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 13:21:13.664634
- Title: Learning Historical Status Prompt for Accurate and Robust Visual
Tracking
- Title(参考訳): 正確でロバストな視覚追跡のための歴史的ステータスプロンプトの学習
- Authors: Wenrui Cai and Qingjie Liu and Yunhong Wang
- Abstract要約: ヒストリカル・インフォメーション・プロンプター(英: Historical Information Prompter、HIP)は、歴史的外観情報を導入するために、検索領域の機能を完全に活用するプラグイン・アンド・プレイモジュールである。
HIPTrackはバックボーンを再トレーニングすることなくトラッキング性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 42.546986340787676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most trackers perform template and search region similarity matching to find
the most similar object to the template during tracking. However, they struggle
to make prediction when the target appearance changes due to the limited
historical information introduced by roughly cropping the current search region
based on the predicted result of previous frame. In this paper, we identify
that the central impediment to improving the performance of existing trackers
is the incapacity to integrate abundant and effective historical information.
To address this issue, we propose a Historical Information Prompter (HIP) to
enhance the provision of historical information. We also build HIPTrack upon
HIP module. HIP is a plug-and-play module that make full use of search region
features to introduce historical appearance information. It also incorporates
historical position information by constructing refined mask of the target. HIP
is a lightweight module to generate historical information prompts. By
integrating historical information prompts, HIPTrack significantly enhances the
tracking performance without the need to retrain the backbone. Experimental
results demonstrate that our method outperforms all state-of-the-art approaches
on LaSOT, LaSOT ext, GOT10k and NfS. Futhermore, HIP module exhibits strong
generality and can be seamlessly integrated into trackers to improve tracking
performance. The source code and models will be released for further research.
- Abstract(参考訳): ほとんどのトラッカーは、追跡中にテンプレートと最も似たオブジェクトを見つけるために、テンプレートと検索領域の類似性を実行する。
しかし,従来のフレームの予測結果に基づいて,現在検索領域を大まかに把握することで生じる限られた歴史情報により,ターゲットの外観が変化した場合の予測に苦慮している。
本稿では,既存のトラッカーの性能向上における中心的障害が,豊富かつ効果的な歴史的情報の統合能力の欠如であることを示す。
この問題に対処するため,歴史的情報の提供を強化するために,歴史情報プロンプタ(HIP)を提案する。
また、HIPTrackをHIPモジュール上に構築する。
HIPは、検索領域の機能を完全に活用して、歴史的外観情報を導入するプラグイン・アンド・プレイモジュールである。
また、ターゲットの精巧なマスクを構築することで、歴史的位置情報も組み込む。
HIPは、歴史的情報プロンプトを生成する軽量モジュールである。
履歴情報プロンプトを統合することで、HIPTrackはバックボーンを再トレーニングすることなくトラッキング性能を大幅に向上する。
実験により,本手法はLaSOT,LaSOT ext,GOT10k,NfSの最先端手法よりも優れていた。
さらに、HIPモジュールは強力な汎用性を示し、トラッカーにシームレスに統合してトラッキング性能を向上させることができる。
ソースコードとモデルはさらなる研究のためにリリースされる予定だ。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - ACTrack: Adding Spatio-Temporal Condition for Visual Object Tracking [0.5371337604556311]
視覚的物体追跡(VOT)において,物体の時間的関係を効果的にモデル化することが重要な課題である
既存の手法は外観に基づく類似性や長期関係モデリングによって追跡され、連続するフレーム間の時間的コンテキストは容易に見過ごされてしまう。
本稿では,大規模な記憶条件を持つ付加的前時間追跡フレームワークであるACTrackについて述べる。このフレームワークは,そのパラメータを凍結することにより,トレーニング済みバックボーンの品質と性能を保ち,トラッキングにおける時間関係をモデル化するためのトレーニング可能な軽量付加性ネットを作成する。
我々は空間的特徴と時間的順序の整合性を確保するための付加的なシアム畳み込みネットワークを設計する。
論文 参考訳(メタデータ) (2024-02-27T07:34:08Z) - Revisiting Color-Event based Tracking: A Unified Network, Dataset, and
Metric [53.88188265943762]
上記の機能を同時に実現したCEUTrack(Color-Event Unified Tracking)のためのシングルステージバックボーンネットワークを提案する。
提案するCEUTrackはシンプルで,効率的で,75FPS以上を達成し,新たなSOTA性能を実現している。
論文 参考訳(メタデータ) (2022-11-20T16:01:31Z) - Towards Sequence-Level Training for Visual Tracking [60.95799261482857]
本研究は、強化学習に基づく視覚追跡のためのシーケンスレベルのトレーニング戦略を導入する。
4つの代表的な追跡モデル、SiamRPN++、SiamAttn、TransT、TrDiMPは、提案手法をトレーニングに取り入れることで一貫して改善されている。
論文 参考訳(メタデータ) (2022-08-11T13:15:36Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - DeepMix: Online Auto Data Augmentation for Robust Visual Object Tracking [11.92631259817911]
DeepMixは、過去のサンプルの埋め込みを入力として、オンラインで拡張埋め込みを生成する。
MixNetは、オンラインデータ拡張をワンステップで実行するためのオフライントレーニングネットワークです。
論文 参考訳(メタデータ) (2021-04-23T13:37:47Z) - STMTrack: Template-free Visual Tracking with Space-time Memory Networks [42.06375415765325]
テンプレート更新機構を持つ既存のトラッカーは、競争性能を達成するために、時間を要する数値最適化と複雑な手設計戦略に依存している。
本稿では,ターゲットに関する歴史的情報を十分に活用することのできる,時空メモリネットワーク上に構築した新しいトラッキングフレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
論文 参考訳(メタデータ) (2021-04-01T08:10:56Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。