論文の概要: Object-Adaptive LSTM Network for Real-time Visual Tracking with
Adversarial Data Augmentation
- arxiv url: http://arxiv.org/abs/2002.02598v1
- Date: Fri, 7 Feb 2020 03:06:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:55:03.831528
- Title: Object-Adaptive LSTM Network for Real-time Visual Tracking with
Adversarial Data Augmentation
- Title(参考訳): 逆データ拡張を用いたリアルタイムビジュアルトラッキングのためのオブジェクト適応型LSTMネットワーク
- Authors: Yihan Du, Yan Yan, Si Chen, Yang Hua
- Abstract要約: 本稿では,オブジェクト適応型LSTMネットワークを用いて,映像の逐次的依存関係を効果的に捕捉し,オブジェクトの外観変化を適応的に学習する,新しいリアルタイムビジュアルトラッキング手法を提案する。
4つのビジュアルトラッキングベンチマーク実験により,トラッキング精度と速度の両面から,提案手法の最先端性能を実証した。
- 参考スコア(独自算出の注目度): 31.842910084312265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep learning based visual tracking methods have obtained
great success owing to the powerful feature representation ability of
Convolutional Neural Networks (CNNs). Among these methods, classification-based
tracking methods exhibit excellent performance while their speeds are heavily
limited by the expensive computation for massive proposal feature extraction.
In contrast, matching-based tracking methods (such as Siamese networks) possess
remarkable speed superiority. However, the absence of online updating renders
these methods unadaptable to significant object appearance variations. In this
paper, we propose a novel real-time visual tracking method, which adopts an
object-adaptive LSTM network to effectively capture the video sequential
dependencies and adaptively learn the object appearance variations. For high
computational efficiency, we also present a fast proposal selection strategy,
which utilizes the matching-based tracking method to pre-estimate dense
proposals and selects high-quality ones to feed to the LSTM network for
classification. This strategy efficiently filters out some irrelevant proposals
and avoids the redundant computation for feature extraction, which enables our
method to operate faster than conventional classification-based tracking
methods. In addition, to handle the problems of sample inadequacy and class
imbalance during online tracking, we adopt a data augmentation technique based
on the Generative Adversarial Network (GAN) to facilitate the training of the
LSTM network. Extensive experiments on four visual tracking benchmarks
demonstrate the state-of-the-art performance of our method in terms of both
tracking accuracy and speed, which exhibits great potentials of recurrent
structures for visual tracking.
- Abstract(参考訳): 近年,畳み込みニューラルネットワーク(CNN)の強力な特徴表現能力により,ディープラーニングに基づく視覚追跡手法が大きな成功を収めている。
これらの手法のうち, 分類に基づく追跡手法は性能に優れるが, 大規模提案特徴抽出のための高価な計算によって速度が大幅に制限される。
対照的に、マッチングベースの追跡手法(例えばシームズネットワーク)は、著しく高速である。
しかし、オンライン更新がないため、これらのメソッドは大きなオブジェクトの外観の変化に適応できない。
本稿では,オブジェクト適応型LSTMネットワークを用いて,映像の逐次的依存関係を効果的に捕捉し,オブジェクトの外観変化を適応的に学習する,新しいリアルタイムビジュアルトラッキング手法を提案する。
また,高い計算効率を実現するために,マッチングベースの追跡手法を用いて高次提案を事前に推定し,高品質な提案を選択してLSTMネットワークに分類する高速な提案選択戦略を提案する。
この戦略は,無関係な提案を効率的に排除し,特徴抽出のための冗長な計算を回避し,従来の分類に基づく追跡手法よりも高速に動作可能にする。
さらに,オンライントラッキングにおけるサンプル不足やクラス不均衡の問題に対処するために,ジェネレーティブ・アドバイサル・ネットワーク(GAN)に基づくデータ拡張手法を採用し,LSTMネットワークのトレーニングを容易にする。
4つのビジュアルトラッキングベンチマークによる大規模な実験は、トラッキング精度と速度の両方の観点から、我々の手法の最先端性能を示し、視覚トラッキングのための再帰的な構造の可能性を示している。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - Adaptive Siamese Tracking with a Compact Latent Network [219.38172719948048]
追跡タスクを分類に変換することで,シームズをベースとしたトラッカーを簡易化する直感的なビューを提供する。
そこで本研究では,視覚シミュレーションと実追跡例を用いて,詳細な解析を行う。
そこで我々は,古典的なSiamRPN++,SiamFC,SiamBANの3つのトラッカーを調整した。
論文 参考訳(メタデータ) (2023-02-02T08:06:02Z) - Towards Sequence-Level Training for Visual Tracking [60.95799261482857]
本研究は、強化学習に基づく視覚追跡のためのシーケンスレベルのトレーニング戦略を導入する。
4つの代表的な追跡モデル、SiamRPN++、SiamAttn、TransT、TrDiMPは、提案手法をトレーニングに取り入れることで一貫して改善されている。
論文 参考訳(メタデータ) (2022-08-11T13:15:36Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Online Descriptor Enhancement via Self-Labelling Triplets for Visual
Data Association [28.03285334702022]
オブジェクトレベルの視覚データアソシエーションのタスクにおいて,視覚記述子を漸進的に精製する自己教師型手法を提案する。
本手法は,ドメインに依存しないデータで事前学習した画像分類ネットワークを継続的にトレーニングすることにより,オンラインのディープディスクリプタジェネレータを最適化する。
提案手法はトラッキング・バイ・ディテクト・タスクに適用された他の視覚的データ・アソシエーション手法を超越し,観測情報に適応しようとする他の手法と比較して,優れた性能向上を提供することを示す。
論文 参考訳(メタデータ) (2020-11-06T17:42:04Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Efficient Scale Estimation Methods using Lightweight Deep Convolutional
Neural Networks for Visual Tracking [16.439797365064003]
本稿では、事前学習した軽量CNNモデルを利用して、2つの効率的なスケール推定手法を提案する。
提案手法は畳み込み特徴写像の全体的あるいは地域的表現に基づいて定式化される。
彼らは計算効率を大幅に向上させるワンパス特徴抽出プロセスを提案した。
論文 参考訳(メタデータ) (2020-04-06T18:49:37Z) - Effective Fusion of Deep Multitasking Representations for Robust Visual
Tracking [34.09763324745818]
本稿では、DCFベースのフレームワークを用いて、12の最先端ResNetベースのFENの性能を評価することを目的とする。
最高の機能マップをランク付けし、最高のResNetベースのFENを別のDCFベースのメソッドに一般化した採用を探求する。
提案手法は、完全な畳み込みFENから深い意味情報を抽出し、最適なResNetベースの特徴マップと融合してターゲット表現を強化する。
論文 参考訳(メタデータ) (2020-04-03T05:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。