論文の概要: Accurate Anchor Free Tracking
- arxiv url: http://arxiv.org/abs/2006.07560v1
- Date: Sat, 13 Jun 2020 04:42:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:09:56.272212
- Title: Accurate Anchor Free Tracking
- Title(参考訳): 正確なアンカーフリートラッキング
- Authors: Shengyun Peng and Yunxuan Yu and Kun Wang and Lei He
- Abstract要約: 本稿では,Anchor Free Siamese Network (AFSN) を開発した。
対象オブジェクトは、バウンディングボックスセンター、オフセットのトラッキング、オブジェクトサイズによって定義される。
AFSNを最高のアンカーベースのトラッカーと比較し、各ベンチマークで利用可能なソースコードを比較します。
- 参考スコア(独自算出の注目度): 9.784386353369483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual object tracking is an important application of computer vision.
Recently, Siamese based trackers have achieved good accuracy. However, most of
Siamese based trackers are not efficient, as they exhaustively search potential
object locations to define anchors and then classify each anchor (i.e., a
bounding box). This paper develops the first Anchor Free Siamese Network
(AFSN). Specifically, a target object is defined by a bounding box center,
tracking offset, and object size. All three are regressed by Siamese network
with no additional classification or regional proposal, and performed once for
each frame. We also tune the stride and receptive field for Siamese network,
and further perform ablation experiments to quantitatively illustrate the
effectiveness of our AFSN. We evaluate AFSN using five most commonly used
benchmarks and compare to the best anchor-based trackers with source codes
available for each benchmark. AFSN is 3-425 times faster than these best anchor
based trackers. AFSN is also 5.97% to 12.4% more accurate in terms of all
metrics for benchmark sets OTB2015, VOT2015, VOT2016, VOT2018 and TrackingNet,
except that SiamRPN++ is 4% better than AFSN in terms of Expected Average
Overlap (EAO) on VOT2018 (but SiamRPN++ is 3.9 times slower).
- Abstract(参考訳): 視覚オブジェクト追跡はコンピュータビジョンの重要な応用である。
最近、シャム語ベースのトラッカーは精度が良い。
しかし、シームズをベースとしたトラッカーのほとんどは効率が良くなく、潜在的な物体の位置を徹底的に探索してアンカーを定義し、各アンカーを分類する(つまり境界ボックス)。
本稿では,Anchor Free Siamese Network (AFSN) を開発した。
具体的には、対象オブジェクトは、バウンディングボックスセンター、オフセットのトラッキング、オブジェクトサイズによって定義される。
これら3つはすべて、追加の分類や地域提案なしでシームズネットワークによって後退され、各フレームで1回実行される。
また,シアームネットワークのストライドと受容場をチューニングし,さらにアブレーション実験を行い,afsnの有効性を定量的に示す。
我々は5つのベンチマークを用いてafsnを評価し、各ベンチマークで利用可能なソースコードを持つ最高のアンカーベースのトラッカーと比較する。
AFSNは、これらの最高のアンカーベースのトラッカーの3,425倍高速である。
AFSN はベンチマークセット OTB2015, VOT2015, VOT2016, VOT2018, TrackingNet のすべての指標で 5.97% から 12.4% の精度で、ただし SiamRPN++ は VOT2018 の期待平均オーバーラップ (EAO) では AFSN よりも4% よい(ただし SiamRPN++ は 3.9 倍遅い)。
関連論文リスト
- Predicting the Best of N Visual Trackers [34.93745058337489]
すべてのトラッキング属性とデータセットの中で最高のパフォーマーは、シングルトラッカーが依然として存在しない。
このギャップを埋めるために、BofNメタトラッカーと呼ばれる"Nトラッカーのベスト"を予測する。
また、フレームレベルのBofNメタトラッカーを導入し、定期的に時間間隔で最高のパフォーマーを予測する。
論文 参考訳(メタデータ) (2024-07-22T15:17:09Z) - Visual Object Tracking with Discriminative Filters and Siamese Networks:
A Survey and Outlook [97.27199633649991]
識別相関フィルタ (DCF) とディープシームズネットワーク (SN) が支配的な追跡パラダイムとして出現している。
本調査では,9つのトラッキングベンチマークの結果に基づいて,90以上のDCFとSiameseトラッカーの体系的,徹底的なレビューを行う。
論文 参考訳(メタデータ) (2021-12-06T07:57:10Z) - SiamAPN++: Siamese Attentional Aggregation Network for Real-Time UAV
Tracking [16.78336740951222]
リアルタイムUAVトラッキングには,新しい注意型シームズトラッカー(SiamAPN++)が提案されている。
SiamAPN++は、リアルタイムで有望なトラッキング結果を達成する。
論文 参考訳(メタデータ) (2021-06-16T14:28:57Z) - Two stages for visual object tracking [13.851408246039515]
Siameseベースのトラッカーは、ビジュアルオブジェクト追跡タスクで有望なパフォーマンスを実現している。
本稿では,検出とセグメンテーションという2段階の新たなトラッカーを提案する。
VOT2016では52.6$%、VOT2018では51.3$%、VOT 2019データセットでは39.0$%である。
論文 参考訳(メタデータ) (2021-04-28T09:11:33Z) - SiamCorners: Siamese Corner Networks for Visual Tracking [39.43480791427431]
シンプルで効果的なアンカーフリートラッカー(Siamese corner network, SiamCorners)を提案します。
ターゲットを角のペアとして追跡することにより、アンカーボックスを設計する必要性を避けます。
SiamCorners は NFS30 の 53.7% AUC と UAV123 の 61.4% AUC を達成している。
論文 参考訳(メタデータ) (2021-04-15T08:23:30Z) - CRACT: Cascaded Regression-Align-Classification for Robust Visual
Tracking [97.84109669027225]
改良された提案改良モジュールCascaded Regression-Align- Classification (CRAC)を導入する。
CRACは多くのベンチマークで最先端のパフォーマンスを得る。
OTB-2015、UAV123、NfS、VOT-2018、TrackingNet、GOT-10k、LaSOTを含む7つのベンチマークの実験において、我々のCRACTは最先端の競合他社と比較して非常に有望な結果を示している。
論文 参考訳(メタデータ) (2020-11-25T02:18:33Z) - Graph Attention Tracking [76.19829750144564]
汎用オブジェクト追跡のための簡易な目標認識型シームズグラフアテンションネットワークを提案する。
GOT-10k、UAV123、TB-100、LaSOTといった挑戦的なベンチマークの実験は、提案されたSiamGATが最先端のトラッカーよりも優れていることを示した。
論文 参考訳(メタデータ) (2020-11-23T04:26:45Z) - LaSOT: A High-quality Large-scale Single Object Tracking Benchmark [67.96196486540497]
高品質な大規模オブジェクト追跡ベンチマークであるLaSOTを提案する。
LaSOTには85のオブジェクトクラスがあり、合計で1,550のフレームが387万フレーム以上ある。
それぞれのビデオフレームは、慎重に手動でバウンディングボックスでアノテートされます。これにより、LaSOTは、私たちの知る限り、最も高密度にアノテートされたトラッキングベンチマークになります。
論文 参考訳(メタデータ) (2020-09-08T00:31:56Z) - Ocean: Object-aware Anchor-free Tracking [75.29960101993379]
アンカーベース手法の回帰ネットワークは、正のアンカーボックスでのみ訓練される。
本稿では,この問題に対処する新しいオブジェクト認識型アンカーフリーネットワークを提案する。
我々のアンカーフリートラッカーは5つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-18T17:51:39Z) - Siamese Box Adaptive Network for Visual Tracking [100.46025199664642]
我々は、シンプルで効果的な視覚追跡フレームワーク(Siamese Box Adaptive Network, SiamBAN)を提案する。
SiamBANは直接オブジェクトを分類し、その境界ボックスを統一畳み込みネットワーク(FCN)で回帰する
SiamBANは最先端のパフォーマンスを達成し、40FPSで動作し、その有効性と効率を確認する。
論文 参考訳(メタデータ) (2020-03-15T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。