論文の概要: DCF-ASN: Coarse-to-fine Real-time Visual Tracking via Discriminative
Correlation Filter and Attentional Siamese Network
- arxiv url: http://arxiv.org/abs/2103.10607v1
- Date: Fri, 19 Mar 2021 03:01:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 20:49:55.750599
- Title: DCF-ASN: Coarse-to-fine Real-time Visual Tracking via Discriminative
Correlation Filter and Attentional Siamese Network
- Title(参考訳): DCF-ASN:識別相関フィルタと注意型シームズネットワークによる粗大なリアルタイム視覚追跡
- Authors: Xizhe Xue, Ying Li, Xiaoyue Yin, Qiang Shen
- Abstract要約: 識別相関フィルタ(DCF)とシアムネットワークは視覚追跡タスクにおいて有望な性能を達成している。
オンラインアップデーティングdcfモジュールを用いて,目標状態の概算を行う粗粒度追跡フレームワークを提案する。
提案したDCF-ASNは、トラッキング効率が良く、最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 9.01402976480327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discriminative correlation filters (DCF) and siamese networks have achieved
promising performance on visual tracking tasks thanks to their superior
computational efficiency and reliable similarity metric learning, respectively.
However, how to effectively take advantages of powerful deep networks, while
maintaining the real-time response of DCF, remains a challenging problem.
Embedding the cross-correlation operator as a separate layer into siamese
networks is a popular choice to enhance the tracking accuracy. Being a key
component of such a network, the correlation layer is updated online together
with other parts of the network. Yet, when facing serious disturbance, fused
trackers may still drift away from the target completely due to accumulated
errors. To address these issues, we propose a coarse-to-fine tracking
framework, which roughly infers the target state via an online-updating DCF
module first and subsequently, finely locates the target through an
offline-training asymmetric siamese network (ASN). Benefitting from the
guidance of DCF and the learned channel weights obtained through exploiting the
given ground-truth template, ASN refines feature representation and implements
precise target localization. Systematic experiments on five popular tracking
datasets demonstrate that the proposed DCF-ASN achieves the state-of-the-art
performance while exhibiting good tracking efficiency.
- Abstract(参考訳): 識別相関フィルタ (DCF) とシアムネットワークは, それぞれ優れた計算効率と信頼性のある類似度メトリック学習により, 視覚追跡タスクにおいて有望な性能を達成している。
しかし、DCFのリアルタイム応答を維持しながら、強力なディープネットワークを効果的に活用する方法は、依然として難しい問題である。
クロス相関演算子を分離層としてシアムネットワークに埋め込み、追跡精度を高めることが一般的である。
このようなネットワークの重要なコンポーネントである相関層は、ネットワークの他の部分と共にオンラインで更新される。
しかし、深刻な混乱に直面すると、混乱したトラッカーは蓄積されたエラーのためにターゲットから完全に外れる可能性がある。
これらの問題に対処するために、まずオンライン更新DCFモジュールを介してターゲット状態を大まかに推測し、続いてオフライン学習型非対称システマネットワーク(ASN)を介してターゲットを微妙に特定する粗大な追跡フレームワークを提案する。
DCFの指導と学習チャネルの重み付けから得られた基礎構造テンプレートを利用して、ASNは特徴表現を洗練し、正確なターゲットローカライゼーションを実現する。
5つの一般的な追跡データセットの体系的な実験により、提案したDCF-ASNは、追跡効率が良く、最先端のパフォーマンスを達成することを示した。
関連論文リスト
- AttenScribble: Attentive Similarity Learning for Scribble-Supervised
Medical Image Segmentation [5.8447004333496855]
本稿では,単純かつ効果的なスクリブル教師あり学習フレームワークを提案する。
我々は、任意の完全畳み込みネットワーク(FCN)バックボーンの内部特徴層の上に、接続可能な空間自己アテンションモジュールを作成する。
この注意深い類似性は、セグメンテーション予測と視覚親和性の一貫性を課する新たな正規化損失をもたらす。
論文 参考訳(メタデータ) (2023-12-11T18:42:18Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - SiamTHN: Siamese Target Highlight Network for Visual Tracking [11.111738354621595]
シームズネットワークベースのトラッカーは、バックボーンネットワークによって生成された特徴マップ内の各チャネルを等しく扱う。
これらのトラッカーにおける分類と回帰分岐の間の構造的リンクはなく、2つの分岐はトレーニング中に個別に最適化される。
Target Highlight Moduleは、生成された類似性応答マップがターゲット領域にもっと焦点を合わせるのを助けるために提案されている。
論文 参考訳(メタデータ) (2023-03-22T04:33:02Z) - OFedQIT: Communication-Efficient Online Federated Learning via
Quantization and Intermittent Transmission [7.6058140480517356]
オンライン連合学習(OFL)は、分散ストリーミングデータから非線形関数(またはモデル)のシーケンスを協調的に学習する、有望なフレームワークである。
本稿では、量子化と断続伝送を用いた通信効率の高いOFLアルゴリズム(OFedQIT)を提案する。
分析の結果,OfedQITは優れた学習精度を維持しつつ,OfedAvgの欠点に対処できることがわかった。
論文 参考訳(メタデータ) (2022-05-13T07:46:43Z) - A Deep Value-network Based Approach for Multi-Driver Order Dispatching [55.36656442934531]
そこで本研究では,注文発送のための深層強化学習に基づくソリューションを提案する。
DiDiの配車プラットフォーム上で大規模なオンラインA/Bテストを実施している。
その結果,CVNetは近年提案されているディスパッチ手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-06-08T16:27:04Z) - Higher Performance Visual Tracking with Dual-Modal Localization [106.91097443275035]
Visual Object Tracking (VOT)は、堅牢性と正確性の両方に同期性を必要とする。
ONRによるロバストなローカリゼーション抑制器とOFCによるターゲットセンターへの正確なローカリゼーションにより、ターゲットローカリゼーションのためのデュアルモーダルフレームワークを提案します。
論文 参考訳(メタデータ) (2021-03-18T08:47:56Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Effective Fusion of Deep Multitasking Representations for Robust Visual
Tracking [34.09763324745818]
本稿では、DCFベースのフレームワークを用いて、12の最先端ResNetベースのFENの性能を評価することを目的とする。
最高の機能マップをランク付けし、最高のResNetベースのFENを別のDCFベースのメソッドに一般化した採用を探求する。
提案手法は、完全な畳み込みFENから深い意味情報を抽出し、最適なResNetベースの特徴マップと融合してターゲット表現を強化する。
論文 参考訳(メタデータ) (2020-04-03T05:33:59Z) - Object-Adaptive LSTM Network for Real-time Visual Tracking with
Adversarial Data Augmentation [31.842910084312265]
本稿では,オブジェクト適応型LSTMネットワークを用いて,映像の逐次的依存関係を効果的に捕捉し,オブジェクトの外観変化を適応的に学習する,新しいリアルタイムビジュアルトラッキング手法を提案する。
4つのビジュアルトラッキングベンチマーク実験により,トラッキング精度と速度の両面から,提案手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2020-02-07T03:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。