論文の概要: LightTrack: Finding Lightweight Neural Networks for Object Tracking via
One-Shot Architecture Search
- arxiv url: http://arxiv.org/abs/2104.14545v1
- Date: Thu, 29 Apr 2021 17:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:57:22.961414
- Title: LightTrack: Finding Lightweight Neural Networks for Object Tracking via
One-Shot Architecture Search
- Title(参考訳): LightTrack: ワンショットアーキテクチャ検索によるオブジェクト追跡のための軽量ニューラルネットワーク
- Authors: Bin Yan, Houwen Peng, Kan Wu, Dong Wang, Jianlong Fu, Huchuan Lu
- Abstract要約: ニューラルアーキテクチャサーチ(NAS)を用いて、より軽量で効率的なオブジェクトトラッカーを設計するLightTrackを提案する。
総合的な実験は、LightTrackが効果的であることを示している。
SiamRPN++やOceanといった手作りのSOTAトラッカーよりも優れたパフォーマンスを実現するトラッカーを見つけることができる。
- 参考スコア(独自算出の注目度): 104.84999119090887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object tracking has achieved significant progress over the past few years.
However, state-of-the-art trackers become increasingly heavy and expensive,
which limits their deployments in resource-constrained applications. In this
work, we present LightTrack, which uses neural architecture search (NAS) to
design more lightweight and efficient object trackers. Comprehensive
experiments show that our LightTrack is effective. It can find trackers that
achieve superior performance compared to handcrafted SOTA trackers, such as
SiamRPN++ and Ocean, while using much fewer model Flops and parameters.
Moreover, when deployed on resource-constrained mobile chipsets, the discovered
trackers run much faster. For example, on Snapdragon 845 Adreno GPU, LightTrack
runs $12\times$ faster than Ocean, while using $13\times$ fewer parameters and
$38\times$ fewer Flops. Such improvements might narrow the gap between academic
models and industrial deployments in object tracking task. LightTrack is
released at https://github.com/researchmm/LightTrack.
- Abstract(参考訳): オブジェクト追跡はここ数年で大きな進歩を遂げている。
しかし、最先端のトラッカーはますます重く高価になり、リソース制約のあるアプリケーションへのデプロイメントが制限される。
本研究では、ニューラルネットワークサーチ(NAS)を用いて、より軽量で効率的なオブジェクトトラッカーを設計するLightTrackを提案する。
総合的な実験は、LightTrackが効果的であることを示している。
siamrpn++やoceanといった手作りのsotaトラッカーよりも優れたパフォーマンスを実現するトラッカーを見つけることができ、モデルフラップやパラメータははるかに少ない。
さらに、リソース制約のあるモバイルチップセットにデプロイすると、検出されたトラッカーはより高速に実行される。
例えば、Snapdragon 845 Adreno GPUでは、LightTrackはOceanよりも12\times$速く動作し、13\times$少ないパラメータと38\times$低いFlopsを使用する。
このような改善は、オブジェクト追跡タスクにおける学術モデルと産業展開の間のギャップを狭める可能性がある。
LightTrackはhttps://github.com/researchmm/LightTrack.comでリリースされた。
関連論文リスト
- LITE: A Paradigm Shift in Multi-Object Tracking with Efficient ReID Feature Integration [0.3277163122167433]
マルチオブジェクト追跡(MOT)手法として,軽量な統合的追跡機能抽出パラダイムが導入された。
推論、前処理、後処理、ReIDモデルのトレーニングコストを削減して、ReIDベースのトラッカーを強化する。
論文 参考訳(メタデータ) (2024-09-06T11:05:12Z) - Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Mamba-FETrack: Frame-Event Tracking via State Space Model [14.610806117193116]
本稿では,状態空間モデル(SSM)に基づく新しいRGBイベント追跡フレームワークであるMamba-FETrackを提案する。
具体的には、RGBフレームとイベントストリームの特徴を抽出するために、2つのモダリティ固有のMambaバックボーンネットワークを採用する。
FELTとFE108データセットの大規模な実験により、提案したトラッカーの有効性と有効性を完全に検証した。
論文 参考訳(メタデータ) (2024-04-28T13:12:49Z) - OneTracker: Unifying Visual Object Tracking with Foundation Models and Efficient Tuning [33.521077115333696]
我々は、OneTrackerと呼ばれる様々なトラッキングタスクを統合するための一般的なフレームワークを提案する。
OneTrackerは最初に、Foundation Trackerと呼ばれるRGBトラッカーで大規模な事前トレーニングを行う。
次に、他のモダリティ情報をプロンプトとみなし、Foundation Tracker上にPrompt Trackerを構築する。
論文 参考訳(メタデータ) (2024-03-14T17:59:13Z) - Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - LiteTrack: Layer Pruning with Asynchronous Feature Extraction for
Lightweight and Efficient Visual Tracking [4.179339279095506]
LiteTrackは、様々なデバイスにわたる高速操作に最適化された効率的なトランスフォーマーベースのトラッキングモデルである。
他の軽量トラッカーよりも精度と効率のトレードオフが良好である。
LiteTrack-B9はGOT-10kで72.2%AO、TrackingNetで82.4%AUC、NVIDIA 2080Ti GPUで171fpsで動作する。
論文 参考訳(メタデータ) (2023-09-17T12:01:03Z) - CoTracker: It is Better to Track Together [70.63040730154984]
CoTrackerは、長いビデオシーケンスで多数の2Dポイントを追跡するトランスフォーマーベースのモデルである。
関節トラッキングはトラッキング精度とロバスト性を大幅に改善し、CoTrackerはカメラビューの外側に隠された点や点を追跡することができる。
論文 参考訳(メタデータ) (2023-07-14T21:13:04Z) - Efficient Visual Tracking with Exemplar Transformers [98.62550635320514]
本稿では,リアルタイム物体追跡のための効率的な変換器であるExemplar Transformerを紹介する。
Exemplar Transformerレイヤを組み込んだビジュアルトラッカーであるE.T.Trackは、CPU上で47fpsで動作する。
これは、他のトランスモデルよりも最大8倍高速である。
論文 参考訳(メタデータ) (2021-12-17T18:57:54Z) - High-Performance Long-Term Tracking with Meta-Updater [75.80564183653274]
短期的追跡よりも実用的に近いため、長期的視覚追跡が注目されている。
ほとんどのトップランクの長期トラッカーはオフラインでトレーニングされたSiameseアーキテクチャを採用しているため、オンライン更新による短期トラッカーの大きな進歩の恩恵を受けることはできない。
我々は、重要な問題に対処するために、オフラインでトレーニングされた新しいメタ更新器を提案する: トラッカーは、現在のフレームで更新する準備ができているか?
論文 参考訳(メタデータ) (2020-04-01T09:29:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。