論文の概要: Efficient Visual Tracking via Hierarchical Cross-Attention Transformer
- arxiv url: http://arxiv.org/abs/2203.13537v1
- Date: Fri, 25 Mar 2022 09:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 13:27:38.805308
- Title: Efficient Visual Tracking via Hierarchical Cross-Attention Transformer
- Title(参考訳): 階層型クロスタッチトランスによる効率的な視覚追跡
- Authors: Xin Chen, Dong Wang, Dongdong Li, Huchuan Lu
- Abstract要約: 本稿では,HCAT と呼ばれる階層型クロスアテンショントランスを用いた効率的な追跡手法を提案する。
当社のモデルは、GPUで約195fps、CPUで45fps、NVidia Jetson AGX XavierのエッジAIプラットフォームで55fpsで動作します。
- 参考スコア(独自算出の注目度): 82.92565582642847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, target tracking has made great progress in accuracy. This
development is mainly attributed to powerful networks (such as transformers)
and additional modules (such as online update and refinement modules). However,
less attention has been paid to tracking speed. Most state-of-the-art trackers
are satisfied with the real-time speed on powerful GPUs. However, practical
applications necessitate higher requirements for tracking speed, especially
when edge platforms with limited resources are used. In this work, we present
an efficient tracking method via a hierarchical cross-attention transformer
named HCAT. Our model runs about 195 fps on GPU, 45 fps on CPU, and 55 fps on
the edge AI platform of NVidia Jetson AGX Xavier. Experiments show that our
HCAT achieves promising results on LaSOT, GOT-10k, TrackingNet, NFS, OTB100,
UAV123, and VOT2020. Code and models are available at
https://github.com/chenxin-dlut/HCAT.
- Abstract(参考訳): 近年,目標追跡は精度に大きな進歩を遂げている。
この開発は主に強力なネットワーク(トランスフォーマーなど)と追加モジュール(オンライン更新や改善モジュールなど)によるものである。
しかし、追跡速度にはあまり注意が払われていない。
ほとんどの最先端トラッカーは、強力なGPU上でのリアルタイム速度に満足している。
しかし、特に限られたリソースを持つエッジプラットフォームを使用する場合、実際のアプリケーションは、追跡速度のより高い要求を必要とする。
本研究では,HCATと呼ばれる階層型クロスアテンショントランスを用いた効率的なトラッキング手法を提案する。
当社のモデルは、GPUで約195fps、CPUで45fps、NVidia Jetson AGX XavierのエッジAIプラットフォームで55fpsで動作します。
実験の結果, HCATはLaSOT, GOT-10k, TrackingNet, NFS, OTB100, UAV123, VOT2020で有望な結果を得た。
コードとモデルはhttps://github.com/chenxin-dlut/hcatで入手できる。
関連論文リスト
- Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Tracking Meets LoRA: Faster Training, Larger Model, Stronger Performance [87.19164603145056]
実験室レベルの資源をトラッキングするための大規模ViTモデルのパワーを明らかにする手法であるLoRATを提案する。
私たちの作業の本質は、推論レイテンシを追加することなく、モデルパラメータの小さなサブセットを微調整するテクニックであるLoRAを適用することです。
我々はPETRの適応のみに基づくアンカーフリーヘッドを設計し、計算オーバーヘッドを少なくして性能を向上する。
論文 参考訳(メタデータ) (2024-03-08T11:41:48Z) - Mobile Vision Transformer-based Visual Object Tracking [3.9160947065896803]
バックボーンとしてMobileViTを用いた,軽量で高精度かつ高速なトラッキングアルゴリズムを提案する。
提案手法は,モデルのパラメータが4.7倍少なく,GPUの2.8倍の速度で動作するにもかかわらず,一般的なDMP-50トラッカーよりも優れている。
論文 参考訳(メタデータ) (2023-09-11T21:16:41Z) - Exploring Lightweight Hierarchical Vision Transformers for Efficient
Visual Tracking [69.89887818921825]
HiTは、さまざまなデバイス上で高速に動作可能な、効率的なトラッキングモデルの新たなファミリーだ。
HiTはLaSOTベンチマークで64.6%のAUCを達成した。
論文 参考訳(メタデータ) (2023-08-14T02:51:34Z) - Efficient Visual Tracking with Exemplar Transformers [98.62550635320514]
本稿では,リアルタイム物体追跡のための効率的な変換器であるExemplar Transformerを紹介する。
Exemplar Transformerレイヤを組み込んだビジュアルトラッカーであるE.T.Trackは、CPU上で47fpsで動作する。
これは、他のトランスモデルよりも最大8倍高速である。
論文 参考訳(メタデータ) (2021-12-17T18:57:54Z) - SwinTrack: A Simple and Strong Baseline for Transformer Tracking [81.65306568735335]
完全注意型トランスフォーマートラッキングアルゴリズムSwin-Transformer Tracker(SwinTrack)を提案する。
SwinTrackは、機能抽出と機能融合の両方にTransformerを使用し、ターゲットオブジェクトと検索領域の間の完全なインタラクションを可能にする。
我々の徹底的な実験で、SwinTrackはLaSOT上で0.717 SUCで新しい記録を樹立し、45FPSで走りながらSTARKを4.6%上回った。
論文 参考訳(メタデータ) (2021-12-02T05:56:03Z) - Siamese Transformer Pyramid Networks for Real-Time UAV Tracking [3.0969191504482243]
本稿では,CNNとTransformerアーキテクチャの両方の利点を継承するSiamTPN(Siamese Transformer Pyramid Network)を紹介する。
航空機と一般的な追跡ベンチマークの両方の実験は、高速で動作しながら競争的な結果を得る。
我々の最速の可変トラッカーは、1つのCPUコアで30Hz以上で動作し、LaSOTデータセットで58.1%のAUCスコアを得る。
論文 参考訳(メタデータ) (2021-10-17T13:48:31Z) - STMTrack: Template-free Visual Tracking with Space-time Memory Networks [42.06375415765325]
テンプレート更新機構を持つ既存のトラッカーは、競争性能を達成するために、時間を要する数値最適化と複雑な手設計戦略に依存している。
本稿では,ターゲットに関する歴史的情報を十分に活用することのできる,時空メモリネットワーク上に構築した新しいトラッキングフレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
論文 参考訳(メタデータ) (2021-04-01T08:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。