論文の概要: Learning Global Structure Consistency for Robust Object Tracking
- arxiv url: http://arxiv.org/abs/2008.11769v1
- Date: Wed, 26 Aug 2020 19:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 21:56:32.929376
- Title: Learning Global Structure Consistency for Robust Object Tracking
- Title(参考訳): ロバスト物体追跡のためのグローバル構造一貫性の学習
- Authors: Bi Li, Chengquan Zhang, Zhibin Hong, Xu Tang, Jingtuo Liu, Junyu Han,
Errui Ding, Wenyu Liu
- Abstract要約: この作品は、シーン全体の即時的なバリエーションを考慮に入れている。
本稿では,グローバルな構造的一貫性を短時間で活用する方法を学習する,効率的かつ効率的な短期モデルを提案する。
提案したトラッカーが2つの挑戦シナリオに対処し,大規模ベンチマークで検証できることを実証的に検証する。
- 参考スコア(独自算出の注目度): 57.736915865309165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast appearance variations and the distractions of similar objects are two of
the most challenging problems in visual object tracking. Unlike many existing
trackers that focus on modeling only the target, in this work, we consider the
\emph{transient variations of the whole scene}. The key insight is that the
object correspondence and spatial layout of the whole scene are consistent
(i.e., global structure consistency) in consecutive frames which helps to
disambiguate the target from distractors. Moreover, modeling transient
variations enables to localize the target under fast variations. Specifically,
we propose an effective and efficient short-term model that learns to exploit
the global structure consistency in a short time and thus can handle fast
variations and distractors. Since short-term modeling falls short of handling
occlusion and out of the views, we adopt the long-short term paradigm and use a
long-term model that corrects the short-term model when it drifts away from the
target or the target is not present. These two components are carefully
combined to achieve the balance of stability and plasticity during tracking. We
empirically verify that the proposed tracker can tackle the two challenging
scenarios and validate it on large scale benchmarks. Remarkably, our tracker
improves state-of-the-art-performance on VOT2018 from 0.440 to 0.460, GOT-10k
from 0.611 to 0.640, and NFS from 0.619 to 0.629.
- Abstract(参考訳): 視覚的物体追跡において、外見の変化や類似物体の散逸は最も困難な問題である。
ターゲットのみをモデリングすることに焦点を当てた既存の多くのトラッカーとは異なり、この作業では、シーン全体のenmph{transient variations of the scene} を考える。
重要な洞察は、シーン全体のオブジェクト対応と空間レイアウトが連続したフレームで一貫性があり(すなわち、グローバル構造の一貫性)、ターゲットを邪魔者から遠ざけるのに役立つ、ということである。
さらに、過渡変動のモデリングにより、ターゲットを高速変動下でローカライズすることができる。
具体的には,グローバルな構造的一貫性を短時間で活用し,高速な変動や乱れを処理できる,効率的かつ効率的な短期モデルを提案する。
短期モデリングは、オクルージョンの扱いに不足しているため、ロングショート・ターム・パラダイムを採用し、ターゲットから遠ざかっている場合やターゲットが存在しない場合の短期モデルを修正する長期モデルを用いている。
これら2つのコンポーネントは、トラッキング中の安定性と可塑性のバランスを達成するために慎重に結合される。
提案するトラッカが2つの困難なシナリオに対処し,大規模ベンチマークで検証できることを実証的に検証する。
我々のトラッカーは、VOT2018の最先端性能を0.440から0.460に改善し、GOT-10kは0.611から0.640に、NFSは0.619から0.629に改善した。
関連論文リスト
- Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Target-Aware Tracking with Long-term Context Attention [8.20858704675519]
長期的コンテキストアテンション(LCA)モジュールは、長期的フレームからターゲットとそのコンテキストについて広範な情報融合を行うことができる。
LCAは、類似したオブジェクトや複雑な背景の干渉を排除するために、以前のフレームからターゲット状態を使用する。
トラッカーは, 71.1%のAUC, 89.3%のNP, 73.0%のAOをLaSOT, TrackingNet, GOT-10kで実現した。
論文 参考訳(メタデータ) (2023-02-27T14:40:58Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z) - Target Transformed Regression for Accurate Tracking [30.516462193231888]
本稿では,TREG(Target Transformed Regression)と呼ばれるTransformerライクな回帰分岐を,正確なアンカーフリートラッキングのために再利用する。
TREGのコアは、ターゲットテンプレートと検索領域の要素間のペアワイズ関係をモデル化し、正確なバウンディングボックス回帰のために得られたターゲット強化ビジュアル表現を使用することです。
さらに,信頼性の高いテンプレートを選択するための簡単なオンラインテンプレート更新機構を考案し,出現変動のロバスト性や対象の時間的変形を増大させる。
論文 参考訳(メタデータ) (2021-04-01T11:25:23Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。