論文の概要: Efficient Scale Estimation Methods using Lightweight Deep Convolutional
Neural Networks for Visual Tracking
- arxiv url: http://arxiv.org/abs/2004.02933v2
- Date: Fri, 11 Dec 2020 08:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:29:33.739677
- Title: Efficient Scale Estimation Methods using Lightweight Deep Convolutional
Neural Networks for Visual Tracking
- Title(参考訳): 軽量深部畳み込みニューラルネットワークを用いた視覚追跡のための効率的なスケール推定法
- Authors: Seyed Mojtaba Marvasti-Zadeh, Hossein Ghanei-Yakhdan, Shohreh Kasaei
- Abstract要約: 本稿では、事前学習した軽量CNNモデルを利用して、2つの効率的なスケール推定手法を提案する。
提案手法は畳み込み特徴写像の全体的あるいは地域的表現に基づいて定式化される。
彼らは計算効率を大幅に向上させるワンパス特徴抽出プロセスを提案した。
- 参考スコア(独自算出の注目度): 16.439797365064003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, visual tracking methods that are based on discriminative
correlation filters (DCF) have been very promising. However, most of these
methods suffer from a lack of robust scale estimation skills. Although a wide
range of recent DCF-based methods exploit the features that are extracted from
deep convolutional neural networks (CNNs) in their translation model, the scale
of the visual target is still estimated by hand-crafted features. Whereas the
exploitation of CNNs imposes a high computational burden, this paper exploits
pre-trained lightweight CNNs models to propose two efficient scale estimation
methods, which not only improve the visual tracking performance but also
provide acceptable tracking speeds. The proposed methods are formulated based
on either holistic or region representation of convolutional feature maps to
efficiently integrate into DCF formulations to learn a robust scale model in
the frequency domain. Moreover, against the conventional scale estimation
methods with iterative feature extraction of different target regions, the
proposed methods exploit proposed one-pass feature extraction processes that
significantly improve the computational efficiency. Comprehensive experimental
results on the OTB-50, OTB-100, TC-128 and VOT-2018 visual tracking datasets
demonstrate that the proposed visual tracking methods outperform the
state-of-the-art methods, effectively.
- Abstract(参考訳): 近年,識別相関フィルタ(DCF)に基づく視覚追跡手法が注目されている。
しかし、これらの手法の多くは、堅牢なスケール推定スキルの欠如に苦しんでいる。
翻訳モデルでは, 深層畳み込みニューラルネットワーク(CNN)から抽出した特徴を多種多様なDCFベースの手法で利用しているが, 視覚的対象の規模は手作りの特徴によって推定されている。
cnnsの活用には高い計算負荷がかかるが,本稿では,事前学習した軽量cnnsモデルを用いて,視覚追跡性能の向上だけでなく,許容可能な追従速度を提供する2つの効率的なスケール推定法を提案する。
提案手法は、畳み込み特徴写像の全体的あるいは地域的表現に基づいて定式化され、DCF定式化に効率的に統合され、周波数領域のロバストスケールモデルを学ぶ。
さらに,異なる対象領域の反復的特徴抽出を用いた従来のスケール推定手法に対して,計算効率を大幅に向上させる1パス特徴抽出法を提案する。
OTB-50, OTB-100, TC-128, VOT-2018 の視覚追跡データセットに関する総合的な実験結果から,提案手法が最先端の手法を効果的に上回ることを示す。
関連論文リスト
- Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Adaptive Exploitation of Pre-trained Deep Convolutional Neural Networks
for Robust Visual Tracking [14.627458410954628]
本稿では,4つのCNNモデルを包括的に分析し,各モデルの最適な特徴マップを決定する。
解析結果を属性辞書として活用することにより,視覚トラッカーの精度とロバスト性を向上させるために,深部特徴の適応的利用を提案する。
論文 参考訳(メタデータ) (2020-08-29T17:09:43Z) - Beyond Background-Aware Correlation Filters: Adaptive Context Modeling
by Hand-Crafted and Deep RGB Features for Visual Tracking [16.439797365064003]
本稿では,適応型背景対応相関フィルタに基づくトラッカーを提案する。
指向性勾配(HOG)のヒストグラムと畳み込みニューラルネットワーク(CNN)の特徴マップを用いて、ターゲットの外観を効果的にモデル化する。
提案手法は,高速な2次元非最大抑圧(NMS)アルゴリズムと意味情報の比較を用いて,課題を検出する。
論文 参考訳(メタデータ) (2020-04-06T18:48:39Z) - Effective Fusion of Deep Multitasking Representations for Robust Visual
Tracking [34.09763324745818]
本稿では、DCFベースのフレームワークを用いて、12の最先端ResNetベースのFENの性能を評価することを目的とする。
最高の機能マップをランク付けし、最高のResNetベースのFENを別のDCFベースのメソッドに一般化した採用を探求する。
提案手法は、完全な畳み込みFENから深い意味情報を抽出し、最適なResNetベースの特徴マップと融合してターゲット表現を強化する。
論文 参考訳(メタデータ) (2020-04-03T05:33:59Z) - Object-Adaptive LSTM Network for Real-time Visual Tracking with
Adversarial Data Augmentation [31.842910084312265]
本稿では,オブジェクト適応型LSTMネットワークを用いて,映像の逐次的依存関係を効果的に捕捉し,オブジェクトの外観変化を適応的に学習する,新しいリアルタイムビジュアルトラッキング手法を提案する。
4つのビジュアルトラッキングベンチマーク実験により,トラッキング精度と速度の両面から,提案手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2020-02-07T03:06:07Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z) - NCVis: Noise Contrastive Approach for Scalable Visualization [79.44177623781043]
NCVisはノイズコントラスト推定の音響統計的基礎の上に構築された高性能次元減少法である。
NCVisは,他の手法の表現品質を保ちながら,速度の観点から最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-30T15:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。