論文の概要: SiamTHN: Siamese Target Highlight Network for Visual Tracking
- arxiv url: http://arxiv.org/abs/2303.12304v1
- Date: Wed, 22 Mar 2023 04:33:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:19:20.962391
- Title: SiamTHN: Siamese Target Highlight Network for Visual Tracking
- Title(参考訳): SiamTHN: 視線追跡のためのシームズターゲットハイライトネットワーク
- Authors: Jiahao Bao, Kaiqiang Chen, Xian Sun, Liangjin Zhao, Wenhui Diao,
Menglong Yan
- Abstract要約: シームズネットワークベースのトラッカーは、バックボーンネットワークによって生成された特徴マップ内の各チャネルを等しく扱う。
これらのトラッカーにおける分類と回帰分岐の間の構造的リンクはなく、2つの分岐はトレーニング中に個別に最適化される。
Target Highlight Moduleは、生成された類似性応答マップがターゲット領域にもっと焦点を合わせるのを助けるために提案されている。
- 参考スコア(独自算出の注目度): 11.111738354621595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Siamese network based trackers develop rapidly in the field of visual object
tracking in recent years. The majority of siamese network based trackers now in
use treat each channel in the feature maps generated by the backbone network
equally, making the similarity response map sensitive to background influence
and hence challenging to focus on the target region. Additionally, there are no
structural links between the classification and regression branches in these
trackers, and the two branches are optimized separately during training.
Therefore, there is a misalignment between the classification and regression
branches, which results in less accurate tracking results. In this paper, a
Target Highlight Module is proposed to help the generated similarity response
maps to be more focused on the target region. To reduce the misalignment and
produce more precise tracking results, we propose a corrective loss to train
the model. The two branches of the model are jointly tuned with the use of
corrective loss to produce more reliable prediction results. Experiments on 5
challenging benchmark datasets reveal that the method outperforms current
models in terms of performance, and runs at 38 fps, proving its effectiveness
and efficiency.
- Abstract(参考訳): 近年,シームズネットワークベースのトラッカーは視覚的物体追跡の分野で急速に発展している。
現在使用されているシアムネットワークベースのトラッカーの大半は、バックボーンネットワークが生成した特徴マップ内の各チャネルを等しく扱い、類似性応答マップを背景の影響に敏感にし、したがってターゲット領域に集中することが困難である。
さらに、これらのトラッカーの分類と回帰の分岐には構造的なリンクはなく、2つの分岐はトレーニング中に個別に最適化される。
したがって、分類と回帰分枝の間には不一致があり、正確な追跡結果が得られない。
本稿では,生成した類似度応答マップが対象領域により焦点を合わせるのを支援するために,ターゲット光モジュールを提案する。
誤調整を低減し、より正確な追跡結果を得るため、モデルをトレーニングするための補正損失を提案する。
モデルの2つの分岐は、より信頼性の高い予測結果を得るために補正損失を用いて共同調整される。
5つの挑戦的なベンチマークデータセットの実験では、このメソッドが現在のモデルよりもパフォーマンスが優れており、38fpsで動作し、その有効性と効率が証明されている。
関連論文リスト
- Multi-attention Associate Prediction Network for Visual Tracking [3.9628431811908533]
分類回帰予測ネットワークは、いくつかの現代のディープトラッカーにおいて驚くべき成功を収めている。
分類と回帰タスクには固有の違いがあるため、特徴マッチングの要求にも反対の要求がある。
上記の問題に対処するために,マルチアテンションアソシエイト予測ネットワーク(MAPNet)を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:18:58Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency [72.9106103283475]
我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
論文 参考訳(メタデータ) (2021-10-11T12:00:20Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - SiamRCR: Reciprocal Classification and Regression for Visual Object
Tracking [47.647615772027606]
そこで我々は,SiamRCRと呼ばれる新しいサイムズ追跡アルゴリズムを提案し,この問題をシンプルで軽量で効果的な解で解決する。
分類と回帰枝の間の相互リンクを構築し、各正のサンプルに対する損失を動的に再重み付けすることができる。
さらに、位置推定の精度を予測するために、位置推定ブランチを追加し、推論中に回帰補助リンクの置換として機能できるようにします。
論文 参考訳(メタデータ) (2021-05-24T12:21:25Z) - DCF-ASN: Coarse-to-fine Real-time Visual Tracking via Discriminative
Correlation Filter and Attentional Siamese Network [9.01402976480327]
識別相関フィルタ(DCF)とシアムネットワークは視覚追跡タスクにおいて有望な性能を達成している。
オンラインアップデーティングdcfモジュールを用いて,目標状態の概算を行う粗粒度追跡フレームワークを提案する。
提案したDCF-ASNは、トラッキング効率が良く、最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-03-19T03:01:21Z) - Multiple Convolutional Features in Siamese Networks for Object Tracking [13.850110645060116]
Multiple Features-Siamese Tracker (MFST) は、ロバストな追跡のために複数の階層的な特徴マップを利用する新しい追跡アルゴリズムである。
MFSTは、オブジェクト追跡ベンチマークにおいて標準のサイメムトラッカーよりも高いトラッキング精度を達成する。
論文 参考訳(メタデータ) (2021-03-01T08:02:27Z) - Graph Attention Tracking [76.19829750144564]
汎用オブジェクト追跡のための簡易な目標認識型シームズグラフアテンションネットワークを提案する。
GOT-10k、UAV123、TB-100、LaSOTといった挑戦的なベンチマークの実験は、提案されたSiamGATが最先端のトラッカーよりも優れていることを示した。
論文 参考訳(メタデータ) (2020-11-23T04:26:45Z) - DiResNet: Direction-aware Residual Network for Road Extraction in VHR
Remote Sensing Images [12.081877372552606]
主に3つのコントリビューションを含む方向対応残差ネットワーク(DiResNet)を提案する。
提案手法は総合精度とF1スコアの両方に利点がある。
論文 参考訳(メタデータ) (2020-05-14T19:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。