論文の概要: Effective Fusion of Deep Multitasking Representations for Robust Visual
Tracking
- arxiv url: http://arxiv.org/abs/2004.01382v2
- Date: Mon, 20 Sep 2021 09:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 04:21:08.954057
- Title: Effective Fusion of Deep Multitasking Representations for Robust Visual
Tracking
- Title(参考訳): ロバストな視覚追跡のための深層マルチタスク表現の有効融合
- Authors: Seyed Mojtaba Marvasti-Zadeh, Hossein Ghanei-Yakhdan, Shohreh Kasaei,
Kamal Nasrollahi, Thomas B. Moeslund
- Abstract要約: 本稿では、DCFベースのフレームワークを用いて、12の最先端ResNetベースのFENの性能を評価することを目的とする。
最高の機能マップをランク付けし、最高のResNetベースのFENを別のDCFベースのメソッドに一般化した採用を探求する。
提案手法は、完全な畳み込みFENから深い意味情報を抽出し、最適なResNetベースの特徴マップと融合してターゲット表現を強化する。
- 参考スコア(独自算出の注目度): 34.09763324745818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking remains an active research field in computer vision
due to persisting challenges with various problem-specific factors in
real-world scenes. Many existing tracking methods based on discriminative
correlation filters (DCFs) employ feature extraction networks (FENs) to model
the target appearance during the learning process. However, using deep feature
maps extracted from FENs based on different residual neural networks (ResNets)
has not previously been investigated. This paper aims to evaluate the
performance of twelve state-of-the-art ResNet-based FENs in a DCF-based
framework to determine the best for visual tracking purposes. First, it ranks
their best feature maps and explores the generalized adoption of the best
ResNet-based FEN into another DCF-based method. Then, the proposed method
extracts deep semantic information from a fully convolutional FEN and fuses it
with the best ResNet-based feature maps to strengthen the target representation
in the learning process of continuous convolution filters. Finally, it
introduces a new and efficient semantic weighting method (using semantic
segmentation feature maps on each video frame) to reduce the drift problem.
Extensive experimental results on the well-known OTB-2013, OTB-2015, TC-128 and
VOT-2018 visual tracking datasets demonstrate that the proposed method
effectively outperforms state-of-the-art methods in terms of precision and
robustness of visual tracking.
- Abstract(参考訳): 視覚物体追跡は、現実世界の様々な問題に固有の要因を持つ課題を継続するため、コンピュータビジョンの活発な研究分野である。
識別相関フィルタ(dcfs)に基づく既存の追跡手法の多くは、特徴抽出ネットワーク(fens)を用いて学習過程における目標の出現をモデル化している。
しかし、異なる残差ニューラルネットワーク(ResNets)に基づいてFENから抽出した深い特徴写像は、これまで研究されていない。
本稿では,dcfベースのフレームワークにおいて,最先端のresnetベースのfens12の性能評価を行い,視覚追跡のための最善を判定することを目的とする。
まず、最高の特徴マップをランク付けし、最高のResNetベースのFENを別のDCFベースのメソッドに一般化した採用を探求する。
提案手法は,完全畳み込み型fenから深い意味情報を抽出し,最適なresnetベースの特徴マップと融合することにより,連続畳み込みフィルタの学習過程における対象表現を強化する。
最後に,新しい効率的な意味重み付け手法(各ビデオフレームのセマンティックセグメンテーション特徴マップを用いた)を導入し,ドリフト問題を低減した。
OTB-2013, OTB-2015, TC-128, VOT-2018 ビジュアルトラッキングデータセットの大規模な実験結果から,提案手法は視覚追跡の精度とロバスト性の観点から,最先端の手法を効果的に上回ることを示した。
関連論文リスト
- LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Deep Feature Tracker: A Novel Application for Deep Convolutional Neural
Networks [0.0]
本稿では,特徴を確実に追跡する方法を学習できる,新しい,統合されたディープラーニングベースのアプローチを提案する。
Deep-PTと呼ばれる提案ネットワークは、畳み込みニューラルネットワークの相互相関であるトラッカーネットワークで構成されている。
ネットワークは、特徴追跡データセットに特別なデータセットがないため、複数のデータセットを使用してトレーニングされている。
論文 参考訳(メタデータ) (2021-07-30T23:24:29Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - Adaptive Exploitation of Pre-trained Deep Convolutional Neural Networks
for Robust Visual Tracking [14.627458410954628]
本稿では,4つのCNNモデルを包括的に分析し,各モデルの最適な特徴マップを決定する。
解析結果を属性辞書として活用することにより,視覚トラッカーの精度とロバスト性を向上させるために,深部特徴の適応的利用を提案する。
論文 参考訳(メタデータ) (2020-08-29T17:09:43Z) - Efficient Scale Estimation Methods using Lightweight Deep Convolutional
Neural Networks for Visual Tracking [16.439797365064003]
本稿では、事前学習した軽量CNNモデルを利用して、2つの効率的なスケール推定手法を提案する。
提案手法は畳み込み特徴写像の全体的あるいは地域的表現に基づいて定式化される。
彼らは計算効率を大幅に向上させるワンパス特徴抽出プロセスを提案した。
論文 参考訳(メタデータ) (2020-04-06T18:49:37Z) - Beyond Background-Aware Correlation Filters: Adaptive Context Modeling
by Hand-Crafted and Deep RGB Features for Visual Tracking [16.439797365064003]
本稿では,適応型背景対応相関フィルタに基づくトラッカーを提案する。
指向性勾配(HOG)のヒストグラムと畳み込みニューラルネットワーク(CNN)の特徴マップを用いて、ターゲットの外観を効果的にモデル化する。
提案手法は,高速な2次元非最大抑圧(NMS)アルゴリズムと意味情報の比較を用いて,課題を検出する。
論文 参考訳(メタデータ) (2020-04-06T18:48:39Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z) - Object-Adaptive LSTM Network for Real-time Visual Tracking with
Adversarial Data Augmentation [31.842910084312265]
本稿では,オブジェクト適応型LSTMネットワークを用いて,映像の逐次的依存関係を効果的に捕捉し,オブジェクトの外観変化を適応的に学習する,新しいリアルタイムビジュアルトラッキング手法を提案する。
4つのビジュアルトラッキングベンチマーク実験により,トラッキング精度と速度の両面から,提案手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2020-02-07T03:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。