論文の概要: TAPL: Dynamic Part-based Visual Tracking via Attention-guided Part
Localization
- arxiv url: http://arxiv.org/abs/2110.13027v1
- Date: Mon, 25 Oct 2021 15:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 16:38:17.629807
- Title: TAPL: Dynamic Part-based Visual Tracking via Attention-guided Part
Localization
- Title(参考訳): tapl:注意誘導部分定位による動的部分ベース視覚追跡
- Authors: Wei han and Hantao Huang and Xiaoxi Yu
- Abstract要約: 動的部分ベースのトラッカーを提案し、対象部分表現を常に更新し、オブジェクトの外観変化に適応させる。
提案するトラッカーは, VOT2018, OTB100, GOT-10k の様々なベンチマークで有望な結果が得られる。
- 参考スコア(独自算出の注目度): 5.6033029994120485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Holistic object representation-based trackers suffer from performance drop
under large appearance change such as deformation and occlusion. In this work,
we propose a dynamic part-based tracker and constantly update the target part
representation to adapt to object appearance change. Moreover, we design an
attention-guided part localization network to directly predict the target part
locations, and determine the final bounding box with the distribution of target
parts. Our proposed tracker achieves promising results on various benchmarks:
VOT2018, OTB100 and GOT-10k
- Abstract(参考訳): ホロスティックオブジェクト表現に基づくトラッカーは、変形や閉塞といった大きな外観変化の下で性能低下に悩まされる。
本研究では,動的部分ベースのトラッカを提案し,対象部分の表現を常に更新して,オブジェクトの出現変化に適応させる。
さらに,対象部位の位置を直接予測し,対象部位の分布による最終境界ボックスを決定するために注意誘導部分位置決めネットワークを設計する。
提案したトラッカーは, VOT2018, OTB100, GOT-10k の様々なベンチマークで有望な結果が得られる。
関連論文リスト
- CiteTracker: Correlating Image and Text for Visual Tracking [114.48653709286629]
我々は、画像とテキストを接続することで、視覚的トラッキングにおけるターゲットモデリングと推論を強化するCiteTrackerを提案する。
具体的には、ターゲット画像パッチを記述テキストに変換するテキスト生成モジュールを開発する。
次に、注目に基づく相関モジュールを用いて対象記述と検索画像を関連付け、対象状態参照のための相関特徴を生成する。
論文 参考訳(メタデータ) (2023-08-22T09:53:12Z) - Robust Visual Tracking by Segmentation [103.87369380021441]
対象範囲を推定することは、視覚的物体追跡において根本的な課題となる。
高精度なセグメンテーションマスクを生成するセグメンテーション中心のトラッキングパイプラインを提案する。
我々のトラッカーは、シーンのターゲットを背景コンテンツと明確に区別するターゲット表現をよりよく学習することができる。
論文 参考訳(メタデータ) (2022-03-21T17:59:19Z) - A Discriminative Single-Shot Segmentation Network for Visual Object
Tracking [13.375369415113534]
本稿では,識別可能な単発セグメンテーショントラッカーD3S2を提案する。
単ショットネットワークは、相補的な幾何学的性質を持つ2つのターゲットモデルを適用する。
D3S2はビデオオブジェクトセグメンテーションベンチマークでリードセグメンテーショントラッカーのSiamMaskを上回っている。
論文 参考訳(メタデータ) (2021-12-22T12:48:51Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Graph Attention Tracking [76.19829750144564]
汎用オブジェクト追跡のための簡易な目標認識型シームズグラフアテンションネットワークを提案する。
GOT-10k、UAV123、TB-100、LaSOTといった挑戦的なベンチマークの実験は、提案されたSiamGATが最先端のトラッカーよりも優れていることを示した。
論文 参考訳(メタデータ) (2020-11-23T04:26:45Z) - An Exploration of Target-Conditioned Segmentation Methods for Visual
Object Trackers [24.210580784051277]
境界ボックストラッカーをセグメント化トラッカーに変換する方法を示す。
この手法は,最近提案されたセグメンテーショントラッカーと競合することを示す。
論文 参考訳(メタデータ) (2020-08-03T16:21:18Z) - Visual Tracking by TridentAlign and Context Embedding [71.60159881028432]
本稿では,Siamese ネットワークに基づく視覚的トラッキングのための新しい TridentAlign とコンテキスト埋め込みモジュールを提案する。
提案トラッカーの性能は最先端トラッカーに匹敵するが,提案トラッカーはリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2020-07-14T08:00:26Z) - Know Your Surroundings: Exploiting Scene Information for Object Tracking [181.1750279330811]
現在の最先端トラッカーは、各フレーム内のオブジェクトをローカライズするためにターゲットの外観モデルのみに依存している。
本研究では,トラッキングにシーン情報を利用する新しいトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-24T17:59:04Z) - Integration of Regularized l1 Tracking and Instance Segmentation for
Video Object Tracking [1.90365714903665]
本研究では,ディープ・オブジェクト・ディテクターと粒子フィルタ・トラッカーを統合したトラッキング・バイ・検出手法を提案する。
検出器とトラッカーのコンセンサスを確立する新しい観測モデルを定式化する。
変形したオブジェクト境界ボックスを追跡可能な,翻訳,回転,スケーリング,せん断パラメータからなる新しい状態ベクトルを提案する。
論文 参考訳(メタデータ) (2019-12-30T11:14:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。