論文の概要: Target Transformed Regression for Accurate Tracking
- arxiv url: http://arxiv.org/abs/2104.00403v1
- Date: Thu, 1 Apr 2021 11:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:37:18.562460
- Title: Target Transformed Regression for Accurate Tracking
- Title(参考訳): 正確な追跡のためのターゲット変換回帰
- Authors: Yutao Cui, Cheng Jiang, Limin Wang and Gangshan Wu
- Abstract要約: 本稿では,TREG(Target Transformed Regression)と呼ばれるTransformerライクな回帰分岐を,正確なアンカーフリートラッキングのために再利用する。
TREGのコアは、ターゲットテンプレートと検索領域の要素間のペアワイズ関係をモデル化し、正確なバウンディングボックス回帰のために得られたターゲット強化ビジュアル表現を使用することです。
さらに,信頼性の高いテンプレートを選択するための簡単なオンラインテンプレート更新機構を考案し,出現変動のロバスト性や対象の時間的変形を増大させる。
- 参考スコア(独自算出の注目度): 30.516462193231888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate tracking is still a challenging task due to appearance variations,
pose and view changes, and geometric deformations of target in videos. Recent
anchor-free trackers provide an efficient regression mechanism but fail to
produce precise bounding box estimation. To address these issues, this paper
repurposes a Transformer-alike regression branch, termed as Target Transformed
Regression (TREG), for accurate anchor-free tracking. The core to our TREG is
to model pair-wise relation between elements in target template and search
region, and use the resulted target enhanced visual representation for accurate
bounding box regression. This target contextualized representation is able to
enhance the target relevant information to help precisely locate the box
boundaries, and deal with the object deformation to some extent due to its
local and dense matching mechanism. In addition, we devise a simple online
template update mechanism to select reliable templates, increasing the
robustness for appearance variations and geometric deformations of target in
time. Experimental results on visual tracking benchmarks including VOT2018,
VOT2019, OTB100, GOT10k, NFS, UAV123, LaSOT and TrackingNet demonstrate that
TREG obtains the state-of-the-art performance, achieving a success rate of
0.640 on LaSOT, while running at around 30 FPS. The code and models will be
made available at https://github.com/MCG-NJU/TREG.
- Abstract(参考訳): 正確な追跡は、ビデオ中のターゲットの外観の変化、ポーズとビューの変化、および幾何学的変形のために依然として難しい課題である。
最近のアンカーフリートラッカーは効率的な回帰機構を提供するが、正確な境界ボックス推定はできない。
これらの問題に対処するため,本論文では,TREG(Target Transformed Regression)と呼ばれるTransformer-alike回帰分岐を用いて,正確なアンカーフリートラッキングを行う。
TREGのコアとなるのは、ターゲットテンプレートと検索領域の要素間のペアワイズ関係をモデル化し、その結果のターゲット拡張視覚表現を正確なバウンディングボックス回帰に利用することである。
この対象のコンテキスト化表現は、対象の関連情報を強化して、ボックス境界を正確に特定し、局所的かつ高密度なマッチング機構により、ある程度オブジェクトの変形に対処することができる。
さらに,信頼性の高いテンプレートを選択するための簡単なオンラインテンプレート更新機構を考案し,出現変動のロバスト性や対象の時間的変形を増大させる。
VOT2018, VOT2019, OTB100, GOT10k, NFS, UAV123, LaSOT, TrackingNetなどのビジュアルトラッキングベンチマークの実験結果は、TREGが30FPSで動作しながら、LaSOTで0.640の成功率を達成したことを示す。
コードとモデルはhttps://github.com/MCG-NJU/TREGで公開される。
関連論文リスト
- Stanceformer: Target-Aware Transformer for Stance Detection [59.69858080492586]
スタンス検出は、テキストで表現されたスタンスを特定の主題やターゲットに向けて識別する。
以前の作業は、ターゲットを効果的に優先順位付けする能力に欠ける既存のトランスフォーマーモデルに依存していた。
本稿では,学習と推論の両方において,目標に対する注意を高めるターゲット対応トランスフォーマーモデルであるStanceformerを紹介する。
論文 参考訳(メタデータ) (2024-10-09T17:24:28Z) - Robust Visual Tracking via Iterative Gradient Descent and Threshold Selection [4.978166837959101]
本稿では, 誤差ベクトルがガウス-ラプラシアン分布に従えば, 良好な性能が得られる新しい線形回帰推定器を提案する。
さらに、IGDTSを生成トラッカーに拡張し、IGDTS距離を適用してサンプルとモデル間のずれを測定する。
いくつかの難解な画像列の実験結果から,提案したトラッカーは既存のトラッカーより優れていた。
論文 参考訳(メタデータ) (2024-06-02T01:51:09Z) - Target-Aware Tracking with Long-term Context Attention [8.20858704675519]
長期的コンテキストアテンション(LCA)モジュールは、長期的フレームからターゲットとそのコンテキストについて広範な情報融合を行うことができる。
LCAは、類似したオブジェクトや複雑な背景の干渉を排除するために、以前のフレームからターゲット状態を使用する。
トラッカーは, 71.1%のAUC, 89.3%のNP, 73.0%のAOをLaSOT, TrackingNet, GOT-10kで実現した。
論文 参考訳(メタデータ) (2023-02-27T14:40:58Z) - Revisiting Color-Event based Tracking: A Unified Network, Dataset, and
Metric [53.88188265943762]
上記の機能を同時に実現したCEUTrack(Color-Event Unified Tracking)のためのシングルステージバックボーンネットワークを提案する。
提案するCEUTrackはシンプルで,効率的で,75FPS以上を達成し,新たなSOTA性能を実現している。
論文 参考訳(メタデータ) (2022-11-20T16:01:31Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Transforming Model Prediction for Tracking [109.08417327309937]
トランスフォーマーは、誘導バイアスの少ないグローバルな関係を捉え、より強力なターゲットモデルの予測を学ぶことができる。
提案したトラッカーをエンドツーエンドにトレーニングし、複数のトラッカーデータセットに関する総合的な実験を行うことで、その性能を検証する。
我々のトラッカーは3つのベンチマークで新しい技術状態を設定し、挑戦的なLaSOTデータセットで68.5%のAUCを達成した。
論文 参考訳(メタデータ) (2022-03-21T17:59:40Z) - Generative Target Update for Adaptive Siamese Tracking [7.662745552551165]
シームズトラッカーは、検索領域内のオブジェクトをローカライズするためにテンプレート(ターゲットモデル)と類似性マッチングを行う。
文献では、現在のフレームのターゲット探索領域から抽出されるトラッカー出力に基づいてテンプレートを更新するためのいくつかの戦略が提案されている。
本稿では,複数フレームのオブジェクト探索領域から合成テンプレートを生成するため,生成モデルを用いたシームズトラッカーのモデル適応手法を提案する。
論文 参考訳(メタデータ) (2022-02-21T00:22:49Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Transformer Tracking [76.96796612225295]
相関は追跡分野において、特に人気のあるシャム系トラッカーにおいて重要な役割を果たす。
本研究は,注意のみを用いてテンプレートと検索領域を効果的に結合した,新しい注意型特徴融合ネットワークを提案する。
実験により、TransTは6つの挑戦的なデータセットで非常に有望な結果が得られます。
論文 参考訳(メタデータ) (2021-03-29T09:06:55Z) - Learning Global Structure Consistency for Robust Object Tracking [57.736915865309165]
この作品は、シーン全体の即時的なバリエーションを考慮に入れている。
本稿では,グローバルな構造的一貫性を短時間で活用する方法を学習する,効率的かつ効率的な短期モデルを提案する。
提案したトラッカーが2つの挑戦シナリオに対処し,大規模ベンチマークで検証できることを実証的に検証する。
論文 参考訳(メタデータ) (2020-08-26T19:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。