論文の概要: Rethinking Convolutional Features in Correlation Filter Based Tracking
- arxiv url: http://arxiv.org/abs/1912.12811v1
- Date: Mon, 30 Dec 2019 04:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:44:07.143975
- Title: Rethinking Convolutional Features in Correlation Filter Based Tracking
- Title(参考訳): 相関フィルタに基づく追跡における畳み込み特徴の再考
- Authors: Fang Liang, Wenjun Peng, Qinghao Liu, Haijin Wang
- Abstract要約: 我々は階層的な機能ベースのビジュアルトラッカーを再検討し、ディープトラッカーの性能と効率の両方が、機能品質の低さによって制限されていることを発見した。
冗長な機能を取り除いた後、提案するトラッカーは性能と効率の両方で大幅に改善される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Both accuracy and efficiency are of significant importance to the task of
visual object tracking. In recent years, as the surge of deep learning, Deep
Convolutional NeuralNetwork (DCNN) becomes a very popular choice among the
tracking community. However, due to the high computational complexity,
end-to-end visual object trackers can hardly achieve an acceptable inference
time and therefore can difficult to be utilized in many real-world
applications. In this paper, we revisit a hierarchical deep feature-based
visual tracker and found that both the performance and efficiency of the deep
tracker are limited by the poor feature quality. Therefore, we propose a
feature selection module to select more discriminative features for the
trackers. After removing redundant features, our proposed tracker achieves
significant improvements in both performance and efficiency. Finally,
comparisons with state-of-the-art trackers are provided.
- Abstract(参考訳): 正確性と効率性は、視覚オブジェクト追跡のタスクにおいて重要である。
近年、深層学習の急増に伴い、深層畳み込みニューラルネットワーク(dcnn)が追跡コミュニティの中で非常に人気のある選択肢となっている。
しかし、計算の複雑さが高いため、エンドツーエンドのビジュアルオブジェクトトラッカーは許容できる推論時間を達成できないため、多くの実世界のアプリケーションで利用するのが困難である。
本稿では,階層的な特徴量に基づく視覚トラッカーを再検討し,その性能と効率は,特徴品質の低下によって制限されることを示した。
そこで本研究では,トラッカの識別機能を選択するための特徴選択モジュールを提案する。
冗長な機能を取り除いた後、提案するトラッカーは性能と効率の両方で大幅に改善される。
最後に、最先端トラッカーとの比較を行う。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - FeatureSORT: Essential Features for Effective Tracking [0.0]
本稿では,オンライン複数オブジェクト追跡のための新しいトラッカーについて紹介する。
衣料品の色やスタイル,対象方向など,異なる外観特徴を統合することで,オンライントラッキングの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-05T04:37:39Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - CoCoLoT: Combining Complementary Trackers in Long-Term Visual Tracking [17.2557973738397]
本稿では,長期追跡性能を向上させるために,補完的な視覚トラッカーの特性を組み合わせたCoCoLoTというフレームワークを提案する。
CoCoLoTは、オンライン学習された深層検証モデルを通じて、トラッカーが対象オブジェクトをフォローしているかどうかを認識し、意思決定ポリシーを起動する。
提案手法は広範に評価され、他のいくつかのソリューションとの比較により、最も人気のある視覚的追跡ベンチマークにおいて最先端の手法と競合することが判明した。
論文 参考訳(メタデータ) (2022-05-09T13:25:13Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters [2.3526458707956643]
本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
論文 参考訳(メタデータ) (2020-12-23T16:43:21Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。