論文の概要: Context-aware Visual Tracking with Joint Meta-updating
- arxiv url: http://arxiv.org/abs/2204.01513v1
- Date: Mon, 4 Apr 2022 14:16:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 18:53:28.528805
- Title: Context-aware Visual Tracking with Joint Meta-updating
- Title(参考訳): 共同メタ更新によるコンテキスト認識型視覚トラッキング
- Authors: Qiuhong Shen, Xin Li, Fanyang Meng, Yongsheng Liang
- Abstract要約: 本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
- 参考スコア(独自算出の注目度): 11.226947525556813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual object tracking acts as a pivotal component in various emerging video
applications. Despite the numerous developments in visual tracking, existing
deep trackers are still likely to fail when tracking against objects with
dramatic variation. These deep trackers usually do not perform online update or
update single sub-branch of the tracking model, for which they cannot adapt to
the appearance variation of objects. Efficient updating methods are therefore
crucial for tracking while previous meta-updater optimizes trackers directly
over parameter space, which is prone to over-fit even collapse on longer
sequences. To address these issues, we propose a context-aware tracking model
to optimize the tracker over the representation space, which jointly
meta-update both branches by exploiting information along the whole sequence,
such that it can avoid the over-fitting problem. First, we note that the
embedded features of the localization branch and the box-estimation branch,
focusing on the local and global information of the target, are effective
complements to each other. Based on this insight, we devise a
context-aggregation module to fuse information in historical frames, followed
by a context-aware module to learn affinity vectors for both branches of the
tracker. Besides, we develop a dedicated meta-learning scheme, on account of
fast and stable updating with limited training samples. The proposed tracking
method achieves an EAO score of 0.514 on VOT2018 with the speed of 40FPS,
demonstrating its capability of improving the accuracy and robustness of the
underlying tracker with little speed drop.
- Abstract(参考訳): ビジュアルオブジェクト追跡は、様々な新興ビデオアプリケーションにおいて重要なコンポーネントとして機能する。
ビジュアルトラッキングの多くの進歩にもかかわらず、既存のディープトラッカーは、劇的な変化でオブジェクトを追跡する際に失敗する可能性が高い。
これらのディープトラッカーは通常、オンラインアップデートやトラッキングモデルの単一のサブブランチを更新せず、オブジェクトの外観変化に対応できない。
したがって、効率的な更新は追跡に不可欠であり、以前のmeta-updaterはパラメータ空間上で直接トラッカーを最適化する。
これらの問題に対処するために,我々は,表示空間上のトラッカを最適化するコンテキストアウェアトラッキングモデルを提案する。
まず,ターゲットの局所的情報と大域的情報に着目した局所的分枝とボックス推定分枝の組込み特徴が,相互に効果的な補足関係にあることに留意する。
この知見に基づき、歴史的フレームに情報を融合するためのコンテキスト集約モジュールを考案し、続いてコンテキスト認識モジュールを用いてトラッカーの両枝の親和性ベクトルを学習する。
さらに,限定的なトレーニングサンプルによる高速かつ安定的な更新を考慮し,専用のメタ学習スキームを開発した。
提案手法は,vot2018において,40fpsの速度で0.514のeaoスコアを達成し,速度低下の少ないトラッカの精度とロバスト性を向上させる能力を示す。
関連論文リスト
- Autoregressive Queries for Adaptive Tracking with Spatio-TemporalTransformers [55.46413719810273]
リッチ時間情報は、視覚追跡における複雑なターゲットの出現に不可欠である。
提案手法は,6つの一般的な追跡ベンチマークにおいてトラッカーの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-15T02:39:26Z) - Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - Target-Aware Tracking with Long-term Context Attention [8.20858704675519]
長期的コンテキストアテンション(LCA)モジュールは、長期的フレームからターゲットとそのコンテキストについて広範な情報融合を行うことができる。
LCAは、類似したオブジェクトや複雑な背景の干渉を排除するために、以前のフレームからターゲット状態を使用する。
トラッカーは, 71.1%のAUC, 89.3%のNP, 73.0%のAOをLaSOT, TrackingNet, GOT-10kで実現した。
論文 参考訳(メタデータ) (2023-02-27T14:40:58Z) - Tracking by Associating Clips [110.08925274049409]
本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
論文 参考訳(メタデータ) (2022-12-20T10:33:17Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - STMTrack: Template-free Visual Tracking with Space-time Memory Networks [42.06375415765325]
テンプレート更新機構を持つ既存のトラッカーは、競争性能を達成するために、時間を要する数値最適化と複雑な手設計戦略に依存している。
本稿では,ターゲットに関する歴史的情報を十分に活用することのできる,時空メモリネットワーク上に構築した新しいトラッキングフレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
論文 参考訳(メタデータ) (2021-04-01T08:10:56Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - High-Performance Long-Term Tracking with Meta-Updater [75.80564183653274]
短期的追跡よりも実用的に近いため、長期的視覚追跡が注目されている。
ほとんどのトップランクの長期トラッカーはオフラインでトレーニングされたSiameseアーキテクチャを採用しているため、オンライン更新による短期トラッカーの大きな進歩の恩恵を受けることはできない。
我々は、重要な問題に対処するために、オフラインでトレーニングされた新しいメタ更新器を提案する: トラッカーは、現在のフレームで更新する準備ができているか?
論文 参考訳(メタデータ) (2020-04-01T09:29:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。