論文の概要: Rethinking Convolutional Features in Correlation Filter Based Tracking
- arxiv url: http://arxiv.org/abs/1912.12811v1
- Date: Mon, 30 Dec 2019 04:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:44:07.143975
- Title: Rethinking Convolutional Features in Correlation Filter Based Tracking
- Title(参考訳): 相関フィルタに基づく追跡における畳み込み特徴の再考
- Authors: Fang Liang, Wenjun Peng, Qinghao Liu, Haijin Wang
- Abstract要約: 我々は階層的な機能ベースのビジュアルトラッカーを再検討し、ディープトラッカーの性能と効率の両方が、機能品質の低さによって制限されていることを発見した。
冗長な機能を取り除いた後、提案するトラッカーは性能と効率の両方で大幅に改善される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Both accuracy and efficiency are of significant importance to the task of
visual object tracking. In recent years, as the surge of deep learning, Deep
Convolutional NeuralNetwork (DCNN) becomes a very popular choice among the
tracking community. However, due to the high computational complexity,
end-to-end visual object trackers can hardly achieve an acceptable inference
time and therefore can difficult to be utilized in many real-world
applications. In this paper, we revisit a hierarchical deep feature-based
visual tracker and found that both the performance and efficiency of the deep
tracker are limited by the poor feature quality. Therefore, we propose a
feature selection module to select more discriminative features for the
trackers. After removing redundant features, our proposed tracker achieves
significant improvements in both performance and efficiency. Finally,
comparisons with state-of-the-art trackers are provided.
- Abstract(参考訳): 正確性と効率性は、視覚オブジェクト追跡のタスクにおいて重要である。
近年、深層学習の急増に伴い、深層畳み込みニューラルネットワーク(dcnn)が追跡コミュニティの中で非常に人気のある選択肢となっている。
しかし、計算の複雑さが高いため、エンドツーエンドのビジュアルオブジェクトトラッカーは許容できる推論時間を達成できないため、多くの実世界のアプリケーションで利用するのが困難である。
本稿では,階層的な特徴量に基づく視覚トラッカーを再検討し,その性能と効率は,特徴品質の低下によって制限されることを示した。
そこで本研究では,トラッカの識別機能を選択するための特徴選択モジュールを提案する。
冗長な機能を取り除いた後、提案するトラッカーは性能と効率の両方で大幅に改善される。
最後に、最先端トラッカーとの比較を行う。
関連論文リスト
- CoTracker: It is Better to Track Together [74.84109704301127]
CoTrackerは、フレーム内の高密度な点をビデオシーケンスで共同で追跡する。
その結果,関節トラッキングの精度は有意に向上し,ロバスト性も向上した。
CoTrackerはショートウィンドウで慎重に動作しますが、長いビデオシーケンスでウィンドウをアンロールすることでトレーニングを行います。
論文 参考訳(メタデータ) (2023-07-14T21:13:04Z) - CoCoLoT: Combining Complementary Trackers in Long-Term Visual Tracking [17.2557973738397]
本稿では,長期追跡性能を向上させるために,補完的な視覚トラッカーの特性を組み合わせたCoCoLoTというフレームワークを提案する。
CoCoLoTは、オンライン学習された深層検証モデルを通じて、トラッカーが対象オブジェクトをフォローしているかどうかを認識し、意思決定ポリシーを起動する。
提案手法は広範に評価され、他のいくつかのソリューションとの比較により、最も人気のある視覚的追跡ベンチマークにおいて最先端の手法と競合することが判明した。
論文 参考訳(メタデータ) (2022-05-09T13:25:13Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - RPT++: Customized Feature Representation for Siamese Visual Tracking [16.305972000224358]
視覚的トラッキングの性能向上は,有意な領域から抽出された特徴が,より認識可能な視覚的パターンを提供するため,限られていると我々は主張する。
タスク固有の視覚パターンを捉えるために,極性プーリングと極性プーリングという2つの特徴抽出器を提案する。
本稿では,タスク固有の特徴表現の有効性を,最近の進行トラッカーRTPに組み込むことで示す。
論文 参考訳(メタデータ) (2021-10-23T10:58:57Z) - Distractor-Aware Fast Tracking via Dynamic Convolutions and MOT
Philosophy [63.91005999481061]
実用的長期トラッカーは、典型的には3つの重要な特性を含む。
効率的なモデル設計、効果的なグローバル再検出戦略、堅牢な気晴らし認識メカニズム。
動的畳み込み (d-convs) と多重オブジェクト追跡 (MOT) の哲学を用いて, 注意をそらした高速トラッキングを実現するための2タスクトラッキングフレームワーク(DMTrack)を提案する。
我々のトラッカーはLaSOT, OxUvA, TLP, VOT2018LT, VOT 2019LTベンチマークの最先端性能を実現し, リアルタイム3倍高速に動作させる。
論文 参考訳(メタデータ) (2021-04-25T00:59:53Z) - Multiple Convolutional Features in Siamese Networks for Object Tracking [13.850110645060116]
Multiple Features-Siamese Tracker (MFST) は、ロバストな追跡のために複数の階層的な特徴マップを利用する新しい追跡アルゴリズムである。
MFSTは、オブジェクト追跡ベンチマークにおいて標準のサイメムトラッカーよりも高いトラッキング精度を達成する。
論文 参考訳(メタデータ) (2021-03-01T08:02:27Z) - Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters [2.3526458707956643]
本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
論文 参考訳(メタデータ) (2020-12-23T16:43:21Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。