論文の概要: Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters
- arxiv url: http://arxiv.org/abs/2012.12784v1
- Date: Wed, 23 Dec 2020 16:43:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:07:20.862199
- Title: Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters
- Title(参考訳): 深い特徴と相関フィルタを用いた粗い物体追跡
- Authors: Ahmed Zgaren, Wassim Bouachir, Riadh Ksantini
- Abstract要約: 本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
- 参考スコア(独自算出の注目度): 2.3526458707956643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During the last years, deep learning trackers achieved stimulating results
while bringing interesting ideas to solve the tracking problem. This progress
is mainly due to the use of learned deep features obtained by training deep
convolutional neural networks (CNNs) on large image databases. But since CNNs
were originally developed for image classification, appearance modeling
provided by their deep layers might be not enough discriminative for the
tracking task. In fact,such features represent high-level information, that is
more related to object category than to a specific instance of the object.
Motivated by this observation, and by the fact that discriminative correlation
filters(DCFs) may provide a complimentary low-level information, we presenta
novel tracking algorithm taking advantage of both approaches. We formulate the
tracking task as a two-stage procedure. First, we exploit the generalization
ability of deep features to coarsely estimate target translation, while
ensuring invariance to appearance change. Then, we capitalize on the
discriminative power of correlation filters to precisely localize the tracked
object. Furthermore, we designed an update control mechanism to learn
appearance change while avoiding model drift. We evaluated the proposed tracker
on object tracking benchmarks. Experimental results show the robustness of our
algorithm, which performs favorably against CNN and DCF-based trackers. Code is
available at: https://github.com/AhmedZgaren/Coarse-to-fine-Tracker
- Abstract(参考訳): 過去数年間、ディープラーニングトラッカーは、追跡問題の解決に興味深いアイデアをもたらしながら、刺激的な結果を得た。
この進歩は、大きな画像データベース上で深層畳み込みニューラルネットワーク(cnns)を訓練することで得られた学習された深層特徴の使用が主な原因である。
しかし、CNNはもともと画像分類のために開発されたため、深層で提供される外観モデリングはトラッキングタスクに十分な識別性を持たないかもしれない。
実際、そのような特徴は、オブジェクトの特定のインスタンスよりもオブジェクトカテゴリに関連がある、高レベルな情報を表している。
この観察と、識別相関フィルタ(dcfs)が補足的な低レベル情報を提供する可能性があるという事実に動機づけられ、両者のアプローチを生かした新しい追跡アルゴリズムを提案する。
追跡タスクを2段階の手順として定式化する。
まず,深層特徴の一般化機能を活用し,対象翻訳の粗さを推定し,出現変化に対する不均一性を確保した。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
さらに,モデルドリフトを回避しながら外観変化を学習する更新制御機構を設計した。
提案手法をオブジェクト追跡ベンチマークで評価した。
実験の結果,提案アルゴリズムはCNNやDCFベースのトラッカーに対して良好に機能することがわかった。
https://github.com/ahmedzgaren/coarse-to-fine-tracker
関連論文リスト
- Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - A Bayesian Detect to Track System for Robust Visual Object Tracking and
Semi-Supervised Model Learning [1.7268829007643391]
ニューラルネットワークの出力によってパラメータ化されたベイズ追跡・検出フレームワークにおける副次的問題について述べる。
本稿では,粒子フィルタを用いた物体状態推定のための近似サンプリングアルゴリズムを提案する。
粒子フィルタ推論アルゴリズムを用いて,間欠的なラベル付きフレーム上でのトラッキングネットワークの学習に半教師付き学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2022-05-05T00:18:57Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Deep Feature Tracker: A Novel Application for Deep Convolutional Neural
Networks [0.0]
本稿では,特徴を確実に追跡する方法を学習できる,新しい,統合されたディープラーニングベースのアプローチを提案する。
Deep-PTと呼ばれる提案ネットワークは、畳み込みニューラルネットワークの相互相関であるトラッカーネットワークで構成されている。
ネットワークは、特徴追跡データセットに特別なデータセットがないため、複数のデータセットを使用してトレーニングされている。
論文 参考訳(メタデータ) (2021-07-30T23:24:29Z) - Occlusion Aware Kernel Correlation Filter Tracker using RGB-D [0.0]
この論文はまず、カーネル化相関フィルタトラッカーの動作プロトタイプについて詳述する。
リアルタイムアプリケーションにおけるその有効性と可視化支援について検討する。
また,粒子フィルタを用いてトラッカーの精度を向上させることも検討した。
論文 参考訳(メタデータ) (2021-05-25T18:37:39Z) - Multiple Convolutional Features in Siamese Networks for Object Tracking [13.850110645060116]
Multiple Features-Siamese Tracker (MFST) は、ロバストな追跡のために複数の階層的な特徴マップを利用する新しい追跡アルゴリズムである。
MFSTは、オブジェクト追跡ベンチマークにおいて標準のサイメムトラッカーよりも高いトラッキング精度を達成する。
論文 参考訳(メタデータ) (2021-03-01T08:02:27Z) - Unsupervised Deep Representation Learning for Real-Time Tracking [137.69689503237893]
視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
論文 参考訳(メタデータ) (2020-07-22T08:23:12Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - Rethinking Convolutional Features in Correlation Filter Based Tracking [0.0]
我々は階層的な機能ベースのビジュアルトラッカーを再検討し、ディープトラッカーの性能と効率の両方が、機能品質の低さによって制限されていることを発見した。
冗長な機能を取り除いた後、提案するトラッカーは性能と効率の両方で大幅に改善される。
論文 参考訳(メタデータ) (2019-12-30T04:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。