論文の概要: Spatio-Temporal Matching for Siamese Visual Tracking
- arxiv url: http://arxiv.org/abs/2105.02408v1
- Date: Thu, 6 May 2021 02:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:27:22.228044
- Title: Spatio-Temporal Matching for Siamese Visual Tracking
- Title(参考訳): siamese視覚追跡のための時空間マッチング
- Authors: Jinpu Zhang and Yuehuan Wang
- Abstract要約: 類似度マッチングはSiameseトラッカーのコアオペレーションです。
2次元画像マッチングとは異なり、オブジェクト追跡におけるマッチングネットワークは4次元情報(height, width, channel and time)を必要とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Similarity matching is a core operation in Siamese trackers. Most Siamese
trackers carry out similarity learning via cross correlation that originates
from the image matching field. However, unlike 2-D image matching, the matching
network in object tracking requires 4-D information (height, width, channel and
time). Cross correlation neglects the information from channel and time
dimensions, and thus produces ambiguous matching. This paper proposes a
spatio-temporal matching process to thoroughly explore the capability of 4-D
matching in space (height, width and channel) and time. In spatial matching, we
introduce a space-variant channel-guided correlation (SVC-Corr) to recalibrate
channel-wise feature responses for each spatial location, which can guide the
generation of the target-aware matching features. In temporal matching, we
investigate the time-domain context relations of the target and the background
and develop an aberrance repressed module (ARM). By restricting the abrupt
alteration in the interframe response maps, our ARM can clearly suppress
aberrances and thus enables more robust and accurate object tracking.
Furthermore, a novel anchor-free tracking framework is presented to accommodate
these innovations. Experiments on challenging benchmarks including OTB100,
VOT2018, VOT2020, GOT-10k, and LaSOT demonstrate the state-of-the-art
performance of the proposed method.
- Abstract(参考訳): 類似性マッチングは、シームズトラッカーのコア操作である。
ほとんどのシームズトラッカーは、画像マッチング場に由来する相互相関による類似性学習を行う。
しかし、2次元画像マッチングとは異なり、オブジェクト追跡におけるマッチングネットワークは4次元情報(height, width, channel and time)を必要とする。
相関関係はチャネルや時間次元からの情報を無視し、あいまいなマッチングを生成する。
本稿では,空間(幅,チャネル)と時間における4次元マッチングの能力を徹底的に検討するための時空間マッチング手法を提案する。
空間的マッチングにおいて、各空間的位置のチャネルワイド特徴応答を補正するために、空間変動チャネル誘導相関(SVC-Corr)を導入する。
時間的マッチングにおいて、ターゲットと背景の時間領域コンテキスト関係を調査し、収差抑制モジュール(ARM)を開発する。
フレーム間応答マップの急激な変更を制限することで、ARMはアバレンスを明確に抑制し、より堅牢で正確なオブジェクト追跡を可能にします。
さらに,これらのイノベーションに対応するために,新たなアンカーフリートラッキングフレームワークが提案されている。
OTB100, VOT2018, VOT2020, GOT-10k, LaSOT などの挑戦的なベンチマーク実験では,提案手法の最先端性能が実証された。
関連論文リスト
- STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - Local All-Pair Correspondence for Point Tracking [59.76186266230608]
ビデオシーケンス間の任意の点(TAP)を追跡するタスクのために設計された,高精度かつ効率的なモデルであるLocoTrackを紹介する。
LocoTrackは、すべてのTAP-Vidベンチマークで未整合の精度を実現し、現在の最先端の約6倍の速度で動作している。
論文 参考訳(メタデータ) (2024-07-22T06:49:56Z) - A CNN-LSTM Architecture for Marine Vessel Track Association Using
Automatic Identification System (AIS) Data [2.094022863940315]
本研究では,トラックアソシエーションのための1次元CNN-LSTMアーキテクチャに基づくフレームワークを提案する。
提案した枠組みは、自動識別システム(AIS)を介して収集された船舶の位置と動きデータを入力とし、最も可能性の高い船舶軌道をリアルタイムで出力として返す。
論文 参考訳(メタデータ) (2023-03-24T15:26:49Z) - Learning Appearance-motion Normality for Video Anomaly Detection [11.658792932975652]
時空間記憶を付加した2ストリーム自動エンコーダフレームワークを提案する。
見た目の正常さと動きの正常さを独立に学習し、敵の学習を通して相関関係を探索する。
我々のフレームワークは最先端の手法より優れており、UCSD Ped2とCUHK Avenueのデータセットで98.1%、89.8%のAUCを実現している。
論文 参考訳(メタデータ) (2022-07-27T08:30:19Z) - Adaptive Affinity for Associations in Multi-Target Multi-Camera Tracking [53.668757725179056]
本稿では,MTMCTにおけるアフィニティ推定を対応する対応範囲に適応させるための,単純かつ効果的な手法を提案する。
すべての外見の変化に対処する代わりに、データアソシエーション中に出現する可能性のあるものに特化したアフィニティメトリックを調整します。
ミスマッチを最小限に抑えるため、アダプティブアフィニティモジュールはグローバルなre-ID距離を大幅に改善する。
論文 参考訳(メタデータ) (2021-12-14T18:59:11Z) - Modelling Neighbor Relation in Joint Space-Time Graph for Video
Correspondence Learning [53.74240452117145]
本稿では、ラベルなしビデオから信頼できる視覚対応を学習するための自己教師付き手法を提案する。
接続時空間グラフでは,ノードがフレームからサンプリングされたグリッドパッチであり,2種類のエッジによってリンクされる。
学習した表現は、様々な視覚的タスクにおいて最先端の自己監督手法よりも優れています。
論文 参考訳(メタデータ) (2021-09-28T05:40:01Z) - Transformer Tracking [76.96796612225295]
相関は追跡分野において、特に人気のあるシャム系トラッカーにおいて重要な役割を果たす。
本研究は,注意のみを用いてテンプレートと検索領域を効果的に結合した,新しい注意型特徴融合ネットワークを提案する。
実験により、TransTは6つの挑戦的なデータセットで非常に有望な結果が得られます。
論文 参考訳(メタデータ) (2021-03-29T09:06:55Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。