論文の概要: Siamese Box Adaptive Network for Visual Tracking
- arxiv url: http://arxiv.org/abs/2003.06761v2
- Date: Wed, 22 Apr 2020 09:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:57:11.899521
- Title: Siamese Box Adaptive Network for Visual Tracking
- Title(参考訳): 視線追跡のためのシームズボックス適応ネットワーク
- Authors: Zedu Chen, Bineng Zhong, Guorong Li, Shengping Zhang, Rongrong Ji
- Abstract要約: 我々は、シンプルで効果的な視覚追跡フレームワーク(Siamese Box Adaptive Network, SiamBAN)を提案する。
SiamBANは直接オブジェクトを分類し、その境界ボックスを統一畳み込みネットワーク(FCN)で回帰する
SiamBANは最先端のパフォーマンスを達成し、40FPSで動作し、その有効性と効率を確認する。
- 参考スコア(独自算出の注目度): 100.46025199664642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the existing trackers usually rely on either a multi-scale searching
scheme or pre-defined anchor boxes to accurately estimate the scale and aspect
ratio of a target. Unfortunately, they typically call for tedious and heuristic
configurations. To address this issue, we propose a simple yet effective visual
tracking framework (named Siamese Box Adaptive Network, SiamBAN) by exploiting
the expressive power of the fully convolutional network (FCN). SiamBAN views
the visual tracking problem as a parallel classification and regression
problem, and thus directly classifies objects and regresses their bounding
boxes in a unified FCN. The no-prior box design avoids hyper-parameters
associated with the candidate boxes, making SiamBAN more flexible and general.
Extensive experiments on visual tracking benchmarks including VOT2018, VOT2019,
OTB100, NFS, UAV123, and LaSOT demonstrate that SiamBAN achieves
state-of-the-art performance and runs at 40 FPS, confirming its effectiveness
and efficiency. The code will be available at https://github.com/hqucv/siamban.
- Abstract(参考訳): 既存のトラッカーの多くは、ターゲットのスケールとアスペクト比を正確に推定するために、マルチスケールの検索スキームか事前に定義されたアンカーボックスに頼っている。
残念ながら、彼らは通常退屈でヒューリスティックな構成を要求します。
この問題に対処するために,完全畳み込みネットワーク(FCN)の表現力を活用した,シンプルで効果的な視覚追跡フレームワーク(Siamese Box Adaptive Network, SiamBAN)を提案する。
siamban氏はビジュアルトラッキング問題を並列分類と回帰問題として捉えており、オブジェクトを直接分類し、結合ボックスを統一fcnでリグレッシブする。
no-prior boxデザインは、候補ボックスに関連するハイパーパラメータを回避し、siambanをより柔軟で汎用的にする。
VOT2018, VOT2019, OTB100, NFS, UAV123, LaSOTなどのビジュアルトラッキングベンチマークに関する大規模な実験では、SiamBANが最先端のパフォーマンスを達成し、40FPSで動作し、その有効性と効率を確認している。
コードはhttps://github.com/hqucv/siambanで入手できる。
関連論文リスト
- Multi-attention Associate Prediction Network for Visual Tracking [3.9628431811908533]
分類回帰予測ネットワークは、いくつかの現代のディープトラッカーにおいて驚くべき成功を収めている。
分類と回帰タスクには固有の違いがあるため、特徴マッチングの要求にも反対の要求がある。
上記の問題に対処するために,マルチアテンションアソシエイト予測ネットワーク(MAPNet)を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:18:58Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [56.77287041917277]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Adaptive Siamese Tracking with a Compact Latent Network [219.38172719948048]
追跡タスクを分類に変換することで,シームズをベースとしたトラッカーを簡易化する直感的なビューを提供する。
そこで本研究では,視覚シミュレーションと実追跡例を用いて,詳細な解析を行う。
そこで我々は,古典的なSiamRPN++,SiamFC,SiamBANの3つのトラッカーを調整した。
論文 参考訳(メタデータ) (2023-02-02T08:06:02Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - SiamCorners: Siamese Corner Networks for Visual Tracking [39.43480791427431]
シンプルで効果的なアンカーフリートラッカー(Siamese corner network, SiamCorners)を提案します。
ターゲットを角のペアとして追跡することにより、アンカーボックスを設計する必要性を避けます。
SiamCorners は NFS30 の 53.7% AUC と UAV123 の 61.4% AUC を達成している。
論文 参考訳(メタデータ) (2021-04-15T08:23:30Z) - Multiple Convolutional Features in Siamese Networks for Object Tracking [13.850110645060116]
Multiple Features-Siamese Tracker (MFST) は、ロバストな追跡のために複数の階層的な特徴マップを利用する新しい追跡アルゴリズムである。
MFSTは、オブジェクト追跡ベンチマークにおいて標準のサイメムトラッカーよりも高いトラッキング精度を達成する。
論文 参考訳(メタデータ) (2021-03-01T08:02:27Z) - CRACT: Cascaded Regression-Align-Classification for Robust Visual
Tracking [97.84109669027225]
改良された提案改良モジュールCascaded Regression-Align- Classification (CRAC)を導入する。
CRACは多くのベンチマークで最先端のパフォーマンスを得る。
OTB-2015、UAV123、NfS、VOT-2018、TrackingNet、GOT-10k、LaSOTを含む7つのベンチマークの実験において、我々のCRACTは最先端の競合他社と比較して非常に有望な結果を示している。
論文 参考訳(メタデータ) (2020-11-25T02:18:33Z) - FCOS: A simple and strong anchor-free object detector [111.87691210818194]
物体検出を画素ごとの予測方式で解くために, 完全畳み込み型一段物検出器 (FCOS) を提案する。
RetinaNet、SSD、YOLOv3、Faster R-CNNといった最先端のオブジェクト検出器のほとんどは、事前に定義されたアンカーボックスに依存している。
対照的に、提案した検出器FCOSはアンカーボックスフリーであり、提案はフリーである。
論文 参考訳(メタデータ) (2020-06-14T01:03:39Z) - Accurate Anchor Free Tracking [9.784386353369483]
本稿では,Anchor Free Siamese Network (AFSN) を開発した。
対象オブジェクトは、バウンディングボックスセンター、オフセットのトラッキング、オブジェクトサイズによって定義される。
AFSNを最高のアンカーベースのトラッカーと比較し、各ベンチマークで利用可能なソースコードを比較します。
論文 参考訳(メタデータ) (2020-06-13T04:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。