論文の概要: Adaptive Exploitation of Pre-trained Deep Convolutional Neural Networks
for Robust Visual Tracking
- arxiv url: http://arxiv.org/abs/2008.13015v2
- Date: Tue, 22 Dec 2020 06:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 16:53:06.602992
- Title: Adaptive Exploitation of Pre-trained Deep Convolutional Neural Networks
for Robust Visual Tracking
- Title(参考訳): ロバスト視覚追跡のための事前学習深部畳み込みニューラルネットワークの適応的爆発
- Authors: Seyed Mojtaba Marvasti-Zadeh, Hossein Ghanei-Yakhdan, and Shohreh
Kasaei
- Abstract要約: 本稿では,4つのCNNモデルを包括的に分析し,各モデルの最適な特徴マップを決定する。
解析結果を属性辞書として活用することにより,視覚トラッカーの精度とロバスト性を向上させるために,深部特徴の適応的利用を提案する。
- 参考スコア(独自算出の注目度): 14.627458410954628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the automatic feature extraction procedure via multi-layer nonlinear
transformations, the deep learning-based visual trackers have recently achieved
great success in challenging scenarios for visual tracking purposes. Although
many of those trackers utilize the feature maps from pre-trained convolutional
neural networks (CNNs), the effects of selecting different models and
exploiting various combinations of their feature maps are still not compared
completely. To the best of our knowledge, all those methods use a fixed number
of convolutional feature maps without considering the scene attributes (e.g.,
occlusion, deformation, and fast motion) that might occur during tracking. As a
pre-requisition, this paper proposes adaptive discriminative correlation
filters (DCF) based on the methods that can exploit CNN models with different
topologies. First, the paper provides a comprehensive analysis of four commonly
used CNN models to determine the best feature maps of each model. Second, with
the aid of analysis results as attribute dictionaries, adaptive exploitation of
deep features is proposed to improve the accuracy and robustness of visual
trackers regarding video characteristics. Third, the generalization of the
proposed method is validated on various tracking datasets as well as CNN models
with similar architectures. Finally, extensive experimental results demonstrate
the effectiveness of the proposed adaptive method compared with
state-of-the-art visual tracking methods.
- Abstract(参考訳): 多層非線形変換による自動特徴抽出法により、深層学習に基づく視覚トラッカーは、近年、視覚追跡目的の挑戦的なシナリオにおいて大きな成功を収めている。
これらのトラッカーの多くは、事前訓練された畳み込みニューラルネットワーク(CNN)から特徴マップを利用するが、異なるモデルを選択し、それらの特徴マップの様々な組み合わせを利用する効果は、まだ完全に比較されていない。
我々の知る限り、これらの手法はすべて、トラッキング中に発生するシーン特性(例えば、閉塞、変形、高速な動き)を考慮せずに、一定の数の畳み込み特徴写像を使用する。
そこで本研究では,CNNモデルと異なるトポロジを持つ手法に基づいて,適応的識別相関フィルタ(DCF)を提案する。
まず,一般的な4つのCNNモデルの包括的解析を行い,各モデルの最適な特徴マップを決定する。
第2に,分析結果を属性辞書として活用することにより,映像特性に関する視覚トラッカーの精度とロバスト性を向上させるために,深い特徴の適応的利用を提案する。
第3に、提案手法の一般化は、類似したアーキテクチャを持つcnnモデルと同様に、様々な追跡データセット上で検証される。
最後に, 提案手法の有効性を, 最先端の視覚追跡法と比較し, 実験により実証した。
関連論文リスト
- Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - Meta-learning One-class Classifiers with Eigenvalue Solvers for
Supervised Anomaly Detection [55.888835686183995]
教師付き異常検出のためのニューラルネットワークに基づくメタラーニング手法を提案する。
提案手法は,既存の異常検出法や少数ショット学習法よりも優れた性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-01T01:43:04Z) - Leveraging Tacit Information Embedded in CNN Layers for Visual Tracking [1.7188280334580193]
そこで本研究では,複数のCNN層を1つのDCFトラッカーにアダプティブに組み合わせて,ターゲットの外観の変動に対処する手法を提案する。
実験では、CNNの暗黙のデータ層を使用することで、トラッカーが大幅に改善されている。
論文 参考訳(メタデータ) (2020-10-02T21:16:26Z) - A Detailed Look At CNN-based Approaches In Facial Landmark Detection [5.774786149181392]
CNNベースのアプローチは回帰とヒートマップのアプローチに分けられる。
本稿では,CNNに基づくアプローチの両面について検討し,その利点と欠点を一般化し,ヒートマップアプローチのバリエーションを導入する。
包括的評価を行い,提案モデルが全テストデータセットにおいて,他のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-08T16:17:42Z) - Efficient Scale Estimation Methods using Lightweight Deep Convolutional
Neural Networks for Visual Tracking [16.439797365064003]
本稿では、事前学習した軽量CNNモデルを利用して、2つの効率的なスケール推定手法を提案する。
提案手法は畳み込み特徴写像の全体的あるいは地域的表現に基づいて定式化される。
彼らは計算効率を大幅に向上させるワンパス特徴抽出プロセスを提案した。
論文 参考訳(メタデータ) (2020-04-06T18:49:37Z) - Beyond Background-Aware Correlation Filters: Adaptive Context Modeling
by Hand-Crafted and Deep RGB Features for Visual Tracking [16.439797365064003]
本稿では,適応型背景対応相関フィルタに基づくトラッカーを提案する。
指向性勾配(HOG)のヒストグラムと畳み込みニューラルネットワーク(CNN)の特徴マップを用いて、ターゲットの外観を効果的にモデル化する。
提案手法は,高速な2次元非最大抑圧(NMS)アルゴリズムと意味情報の比較を用いて,課題を検出する。
論文 参考訳(メタデータ) (2020-04-06T18:48:39Z) - Effective Fusion of Deep Multitasking Representations for Robust Visual
Tracking [34.09763324745818]
本稿では、DCFベースのフレームワークを用いて、12の最先端ResNetベースのFENの性能を評価することを目的とする。
最高の機能マップをランク付けし、最高のResNetベースのFENを別のDCFベースのメソッドに一般化した採用を探求する。
提案手法は、完全な畳み込みFENから深い意味情報を抽出し、最適なResNetベースの特徴マップと融合してターゲット表現を強化する。
論文 参考訳(メタデータ) (2020-04-03T05:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。