論文の概要: FEAR: Fast, Efficient, Accurate and Robust Visual Tracker
- arxiv url: http://arxiv.org/abs/2112.07957v1
- Date: Wed, 15 Dec 2021 08:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:40:03.734641
- Title: FEAR: Fast, Efficient, Accurate and Robust Visual Tracker
- Title(参考訳): FEAR: 高速、効率的、高精度、ロバストなビジュアルトラッカー
- Authors: Vasyl Borsuk, Roman Vei, Orest Kupyn, Tetiana Martyniuk, Igor
Krashenyi, Ji\v{r}i Matas
- Abstract要約: 私たちは、新しい、高速で、効率的で、正確で、堅牢なシームズ・ビジュアル・トラッカーであるFEARを紹介します。
FEAR-XSトラッカーは、LightTrack [62]より2.4倍小さく、4.3倍高速で精度が高い。
- 参考スコア(独自算出の注目度): 2.544539499281093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present FEAR, a novel, fast, efficient, accurate, and robust Siamese
visual tracker. We introduce an architecture block for object model adaption,
called dual-template representation, and a pixel-wise fusion block to achieve
extra flexibility and efficiency of the model. The dual-template module
incorporates temporal information with only a single learnable parameter, while
the pixel-wise fusion block encodes more discriminative features with fewer
parameters compared to standard correlation modules. By plugging-in
sophisticated backbones with the novel modules, FEAR-M and FEAR-L trackers
surpass most Siamesetrackers on several academic benchmarks in both accuracy
and efficiencies. Employed with the lightweight backbone, the optimized version
FEAR-XS offers more than 10 times faster tracking than current Siamese trackers
while maintaining near state-of-the-art results. FEAR-XS tracker is 2.4x
smaller and 4.3x faster than LightTrack [62] with superior accuracy. In
addition, we expand the definition of the model efficiency by introducing a
benchmark on energy consumption and execution speed. Source code, pre-trained
models, and evaluation protocol will be made available upon request
- Abstract(参考訳): 私たちは、新しい、速く、効率的で、正確で、堅牢なシャムのビジュアルトラッカー、fearを紹介します。
本稿では,デュアルテンプレート表現と呼ばれるオブジェクトモデル適応のためのアーキテクチャブロックと,モデルの柔軟性と効率性を実現する画素間融合ブロックを提案する。
デュアルテンプレートモジュールは、時間情報を単一の学習可能なパラメータでのみ含み、画素ワイド融合ブロックは、標準相関モジュールよりも少ないパラメータでより識別的な特徴を符号化する。
新たなモジュールで洗練されたバックボーンをプラグインすることで、FEAR-MとFEAR-Lトラッカーは、精度と効率の両面でいくつかの学術ベンチマークで多くのシームセトラッカーを上回った。
軽量のバックボーンを採用して最適化されたFEAR-XSでは、現在のシームズトラッカーの10倍以上のトラッキングが可能で、最先端の結果を維持している。
FEAR-XSトラッカーは2.4倍小さく、4.3倍高速で精度が良い。
さらに,エネルギー消費と実行速度のベンチマークを導入することにより,モデル効率の定義を拡大する。
ソースコード、事前訓練されたモデル、評価プロトコルが要求に応じて利用可能になる
関連論文リスト
- LITE: A Paradigm Shift in Multi-Object Tracking with Efficient ReID Feature Integration [0.3277163122167433]
マルチオブジェクト追跡(MOT)手法として,軽量な統合的追跡機能抽出パラダイムが導入された。
推論、前処理、後処理、ReIDモデルのトレーニングコストを削減して、ReIDベースのトラッカーを強化する。
論文 参考訳(メタデータ) (2024-09-06T11:05:12Z) - Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Tracking Meets LoRA: Faster Training, Larger Model, Stronger Performance [87.19164603145056]
実験室レベルの資源をトラッキングするための大規模ViTモデルのパワーを明らかにする手法であるLoRATを提案する。
私たちの作業の本質は、推論レイテンシを追加することなく、モデルパラメータの小さなサブセットを微調整するテクニックであるLoRAを適用することです。
我々はPETRの適応のみに基づくアンカーフリーヘッドを設計し、計算オーバーヘッドを少なくして性能を向上する。
論文 参考訳(メタデータ) (2024-03-08T11:41:48Z) - Lightweight Full-Convolutional Siamese Tracker [4.903759699116597]
本稿では,LightFCと呼ばれる軽量完全畳み込み式シームズトラッカーを提案する。
LightFCは、新しい効率的な相互相関モジュールと、新しい効率的なre-centerヘッドを採用している。
実験の結果、LightFCは性能、パラメータ、FlopsとFPSの最適なバランスを実現することがわかった。
論文 参考訳(メタデータ) (2023-10-09T04:07:35Z) - Exploring Lightweight Hierarchical Vision Transformers for Efficient
Visual Tracking [69.89887818921825]
HiTは、さまざまなデバイス上で高速に動作可能な、効率的なトラッキングモデルの新たなファミリーだ。
HiTはLaSOTベンチマークで64.6%のAUCを達成した。
論文 参考訳(メタデータ) (2023-08-14T02:51:34Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z) - STMTrack: Template-free Visual Tracking with Space-time Memory Networks [42.06375415765325]
テンプレート更新機構を持つ既存のトラッカーは、競争性能を達成するために、時間を要する数値最適化と複雑な手設計戦略に依存している。
本稿では,ターゲットに関する歴史的情報を十分に活用することのできる,時空メモリネットワーク上に構築した新しいトラッキングフレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
論文 参考訳(メタデータ) (2021-04-01T08:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。