論文の概要: Ocean: Object-aware Anchor-free Tracking
- arxiv url: http://arxiv.org/abs/2006.10721v2
- Date: Thu, 9 Jul 2020 17:00:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 13:59:18.652510
- Title: Ocean: Object-aware Anchor-free Tracking
- Title(参考訳): オーシャン:物体認識型アンカーレストラッキング
- Authors: Zhipeng Zhang, Houwen Peng, Jianlong Fu, Bing Li, Weiming Hu
- Abstract要約: アンカーベース手法の回帰ネットワークは、正のアンカーボックスでのみ訓練される。
本稿では,この問題に対処する新しいオブジェクト認識型アンカーフリーネットワークを提案する。
我々のアンカーフリートラッカーは5つのベンチマークで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 75.29960101993379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anchor-based Siamese trackers have achieved remarkable advancements in
accuracy, yet the further improvement is restricted by the lagged tracking
robustness. We find the underlying reason is that the regression network in
anchor-based methods is only trained on the positive anchor boxes (i.e., $IoU
\geq0.6$). This mechanism makes it difficult to refine the anchors whose
overlap with the target objects are small. In this paper, we propose a novel
object-aware anchor-free network to address this issue. First, instead of
refining the reference anchor boxes, we directly predict the position and scale
of target objects in an anchor-free fashion. Since each pixel in groundtruth
boxes is well trained, the tracker is capable of rectifying inexact predictions
of target objects during inference. Second, we introduce a feature alignment
module to learn an object-aware feature from predicted bounding boxes. The
object-aware feature can further contribute to the classification of target
objects and background. Moreover, we present a novel tracking framework based
on the anchor-free model. The experiments show that our anchor-free tracker
achieves state-of-the-art performance on five benchmarks, including VOT-2018,
VOT-2019, OTB-100, GOT-10k and LaSOT. The source code is available at
https://github.com/researchmm/TracKit.
- Abstract(参考訳): アンカーベースのシアムトラッカーは精度が著しく向上しているが、さらなる改善は遅れるトラッキングの堅牢性によって制限されている。
根底にある理由は、アンカーベースの手法の回帰ネットワークが正のアンカーボックス(例えば$IoU \geq0.6$)でのみ訓練されていることである。
この機構により、対象オブジェクトとの重なりが小さいアンカーを洗練することが難しくなる。
本稿では,この問題に対処する新しいオブジェクト認識型アンカーフリーネットワークを提案する。
まず、リファレンスアンカーボックスを洗練するのではなく、アンカーフリーでターゲットオブジェクトの位置とスケールを直接予測します。
基底ボックスの各ピクセルはよく訓練されているため、トラッカーは推論中にターゲットオブジェクトの不正確な予測を修正できる。
第二に、予測境界ボックスからオブジェクト認識機能を学ぶための機能アライメントモジュールを導入する。
オブジェクト認識機能は、ターゲットオブジェクトとバックグラウンドの分類にさらに貢献することができる。
さらに,アンカーフリーモデルに基づく新たなトラッキングフレームワークを提案する。
実験の結果, VOT-2018, VOT-2019, OTB-100, GOT-10k, LaSOTの5つのベンチマークにおいて, アンカーフリートラッカーが最先端の性能を達成することがわかった。
ソースコードはhttps://github.com/researchmm/TracKit.comで入手できる。
関連論文リスト
- Target-Aware Tracking with Long-term Context Attention [8.20858704675519]
長期的コンテキストアテンション(LCA)モジュールは、長期的フレームからターゲットとそのコンテキストについて広範な情報融合を行うことができる。
LCAは、類似したオブジェクトや複雑な背景の干渉を排除するために、以前のフレームからターゲット状態を使用する。
トラッカーは, 71.1%のAUC, 89.3%のNP, 73.0%のAOをLaSOT, TrackingNet, GOT-10kで実現した。
論文 参考訳(メタデータ) (2023-02-27T14:40:58Z) - RFLA: Gaussian Receptive Field based Label Assignment for Tiny Object
Detection [45.10513110142015]
現在のアンカーベースまたはアンカーフリーなラベル割り当てパラダイムは、多くのアウトリーな小さな基底真理サンプルを発生させる。
本稿では,小物体検出のためのガウス受容場に基づくラベルアサインメント(RFLA)戦略を提案する。
当社のアプローチは、AI-TODデータセットの4.0APポイントで最先端の競合より優れています。
論文 参考訳(メタデータ) (2022-08-18T09:35:56Z) - ObjectBox: From Centers to Boxes for Anchor-Free Object Detection [14.75815792682734]
我々は,単一ステージのアンカーフリーかつ高一般化可能なオブジェクト検出手法であるObjectBoxを提案する。
既存のアンカーベースおよびアンカーフリー検出器とは対照的に、対象中心位置のみを正のサンプルとして使用する。
提案手法をMS-COCO 2017およびPASCAL VOC 2012データセット上で評価し,その結果を最先端の手法と比較した。
論文 参考訳(メタデータ) (2022-07-14T15:10:29Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - ByteTrack: Multi-Object Tracking by Associating Every Detection Box [51.93588012109943]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
ほとんどの方法は、スコアがしきい値よりも高い検出ボックスを連想させることでアイデンティティを得る。
本稿では,BYTEと呼ばれるシンプルで効果的で汎用的なアソシエーション手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T17:01:26Z) - Pseudo-IoU: Improving Label Assignment in Anchor-Free Object Detection [60.522877583407904]
現在のアンカーフリー物体検出器は非常に単純で有効であるが、正確なラベル割り当て方法がない。
Pseudo-Intersection-over-Union(Pseudo-IoU): アンカーフリーなオブジェクト検出フレームワークに、より標準化され、正確な割り当てルールをもたらす単純なメトリックである。
本手法はベルやホイッスルを使わずに最新のアンカーフリー手法と同等の性能を実現する。
論文 参考訳(メタデータ) (2021-04-29T02:48:47Z) - Learning Spatio-Temporal Transformer for Visual Tracking [108.11680070733598]
本稿では,エンコーダ・デコーダ変換器をキーコンポーネントとする新しいトラッキングアーキテクチャを提案する。
メソッド全体がエンドツーエンドであり、コサインウィンドウやバウンディングボックススムーシングのような後処理ステップは不要である。
提案されたトラッカーは、Siam R-CNNよりも6倍速いリアルタイム速度を実行しながら、5つのチャレンジングな短期および長期ベンチマークで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-31T15:19:19Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box [68.8204255655161]
Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-17T17:29:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。