論文の概要: Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking
- arxiv url: http://arxiv.org/abs/2111.11625v1
- Date: Tue, 23 Nov 2021 03:07:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 04:31:33.860156
- Title: Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking
- Title(参考訳): 変形可能な物体追跡のための動的コンパクトメモリ埋め込みの学習
- Authors: Pengfei Zhu, Hongtao Yu, Kaihua Zhang, Yu Wang, Shuai Zhao, Lei Wang,
Tianzhu Zhang, Qinghua Hu
- Abstract要約: 本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
- 参考スコア(独自算出の注目度): 82.34356879078955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, template-based trackers have become the leading tracking algorithms
with promising performance in terms of efficiency and accuracy. However, the
correlation operation between query feature and the given template only
exploits accurate target localization, leading to state estimation error
especially when the target suffers from severe deformable variations. To
address this issue, segmentation-based trackers have been proposed that employ
per-pixel matching to improve the tracking performance of deformable objects
effectively. However, most of existing trackers only refer to the target
features in the initial frame, thereby lacking the discriminative capacity to
handle challenging factors, e.g., similar distractors, background clutter,
appearance change, etc. To this end, we propose a dynamic compact memory
embedding to enhance the discrimination of the segmentation-based deformable
visual tracking method. Specifically, we initialize a memory embedding with the
target features in the first frame. During the tracking process, the current
target features that have high correlation with existing memory are updated to
the memory embedding online. To further improve the segmentation accuracy for
deformable objects, we employ a point-to-global matching strategy to measure
the correlation between the pixel-wise query features and the whole template,
so as to capture more detailed deformation information. Extensive evaluations
on six challenging tracking benchmarks including VOT2016, VOT2018, VOT2019,
GOT-10K, TrackingNet, and LaSOT demonstrate the superiority of our method over
recent remarkable trackers. Besides, our method outperforms the excellent
segmentation-based trackers, i.e., D3S and SiamMask on DAVIS2017 benchmark.
- Abstract(参考訳): 近年、テンプレートベースのトラッカーが、効率と精度の面で有望な性能を持つ主要なトラッキングアルゴリズムとなっている。
しかし、クエリ特徴と与えられたテンプレートとの相関操作は、正確なターゲット位置決めしか利用せず、特にターゲットが激しい変形に苦しむ場合、状態推定誤差が発生する。
この問題に対処するために、画素単位のマッチングを用いて変形可能なオブジェクトのトラッキング性能を向上させるセグメンテーションベースのトラッカーが提案されている。
しかし、既存のトラッカーのほとんどは初期フレームのターゲット機能のみを参照しており、例えば、類似のトラッカー、背景の乱れ、外観の変化など、困難な要因を扱うための識別能力が欠如している。
そこで本研究では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,動的メモリ埋め込みを提案する。
具体的には、第1フレームにターゲット特徴を組み込んだメモリを初期化する。
トラッキングプロセス中、既存のメモリとの相関性の高い現在のターゲット機能が更新され、オンラインに埋め込まれる。
変形可能なオブジェクトのセグメンテーション精度をさらに向上するため,我々は,画素単位のクエリ特徴とテンプレート全体の相関を測定するためのポイント・ツー・グローバルマッチング戦略を用いて,より詳細な変形情報を取得する。
VOT2016, VOT2018, VOT2019, GOT-10K, TrackingNet, LaSOTを含む6つのトラッカーベンチマークの大規模な評価は、最近の顕著なトラッカーよりも、我々の手法の優位性を実証している。
DAVIS2017ベンチマークではD3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
関連論文リスト
- RTracker: Recoverable Tracking via PN Tree Structured Memory [71.05904715104411]
本稿では,木構造メモリを用いてトラッカーと検出器を動的に関連付け,自己回復を可能にするRTrackerを提案する。
具体的には,正負と負のターゲットサンプルを時系列に保存し,維持する正負のツリー構造メモリを提案する。
我々の中核となる考え方は、正と負の目標カテゴリーの支持サンプルを用いて、目標損失の信頼性評価のための相対的距離に基づく基準を確立することである。
論文 参考訳(メタデータ) (2024-03-28T08:54:40Z) - Target-Aware Tracking with Long-term Context Attention [8.20858704675519]
長期的コンテキストアテンション(LCA)モジュールは、長期的フレームからターゲットとそのコンテキストについて広範な情報融合を行うことができる。
LCAは、類似したオブジェクトや複雑な背景の干渉を排除するために、以前のフレームからターゲット状態を使用する。
トラッカーは, 71.1%のAUC, 89.3%のNP, 73.0%のAOをLaSOT, TrackingNet, GOT-10kで実現した。
論文 参考訳(メタデータ) (2023-02-27T14:40:58Z) - Revisiting Color-Event based Tracking: A Unified Network, Dataset, and
Metric [53.88188265943762]
上記の機能を同時に実現したCEUTrack(Color-Event Unified Tracking)のためのシングルステージバックボーンネットワークを提案する。
提案するCEUTrackはシンプルで,効率的で,75FPS以上を達成し,新たなSOTA性能を実現している。
論文 参考訳(メタデータ) (2022-11-20T16:01:31Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - A Discriminative Single-Shot Segmentation Network for Visual Object
Tracking [13.375369415113534]
本稿では,識別可能な単発セグメンテーショントラッカーD3S2を提案する。
単ショットネットワークは、相補的な幾何学的性質を持つ2つのターゲットモデルを適用する。
D3S2はビデオオブジェクトセグメンテーションベンチマークでリードセグメンテーショントラッカーのSiamMaskを上回っている。
論文 参考訳(メタデータ) (2021-12-22T12:48:51Z) - Target Transformed Regression for Accurate Tracking [30.516462193231888]
本稿では,TREG(Target Transformed Regression)と呼ばれるTransformerライクな回帰分岐を,正確なアンカーフリートラッキングのために再利用する。
TREGのコアは、ターゲットテンプレートと検索領域の要素間のペアワイズ関係をモデル化し、正確なバウンディングボックス回帰のために得られたターゲット強化ビジュアル表現を使用することです。
さらに,信頼性の高いテンプレートを選択するための簡単なオンラインテンプレート更新機構を考案し,出現変動のロバスト性や対象の時間的変形を増大させる。
論文 参考訳(メタデータ) (2021-04-01T11:25:23Z) - Graph Attention Tracking [76.19829750144564]
汎用オブジェクト追跡のための簡易な目標認識型シームズグラフアテンションネットワークを提案する。
GOT-10k、UAV123、TB-100、LaSOTといった挑戦的なベンチマークの実験は、提案されたSiamGATが最先端のトラッカーよりも優れていることを示した。
論文 参考訳(メタデータ) (2020-11-23T04:26:45Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。