論文の概要: Temporal Aggregation for Adaptive RGBT Tracking
- arxiv url: http://arxiv.org/abs/2201.08949v1
- Date: Sat, 22 Jan 2022 02:31:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-29 07:42:16.321317
- Title: Temporal Aggregation for Adaptive RGBT Tracking
- Title(参考訳): 適応的RGBT追跡のための時間的集約
- Authors: Zhangyong Tang, Tianyang Xu, and Xiao-Jun Wu
- Abstract要約: 本稿では,頑健な外見モデル学習を考慮したRGBTトラッカーを提案する。
空間情報のみを含むオブジェクト追跡タスクを実装している既存のRGBTトラッカーとは異なり、この手法では時間情報も考慮されている。
- 参考スコア(独自算出の注目度): 14.00078027541162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual object tracking with RGB and thermal infrared (TIR) spectra available,
shorted in RGBT tracking, is a novel and challenging research topic which draws
increasing attention nowadays. In this paper, we propose an RGBT tracker which
takes spatio-temporal clues into account for robust appearance model learning,
and simultaneously, constructs an adaptive fusion sub-network for cross-modal
interactions. Unlike most existing RGBT trackers that implement object tracking
tasks with only spatial information included, temporal information is further
considered in this method. Specifically, different from traditional Siamese
trackers, which only obtain one search image during the process of picking up
template-search image pairs, an extra search sample adjacent to the original
one is selected to predict the temporal transformation, resulting in improved
robustness of tracking performance.As for multi-modal tracking, constrained to
the limited RGBT datasets, the adaptive fusion sub-network is appended to our
method at the decision level to reflect the complementary characteristics
contained in two modalities. To design a thermal infrared assisted RGB tracker,
the outputs of the classification head from the TIR modality are taken into
consideration before the residual connection from the RGB modality. Extensive
experimental results on three challenging datasets, i.e. VOT-RGBT2019, GTOT and
RGBT210, verify the effectiveness of our method. Code will be shared at
\textcolor{blue}{\emph{https://github.com/Zhangyong-Tang/TAAT}}.
- Abstract(参考訳): RGBと熱赤外(TIR)スペクトルが利用可能で、RGBTトラッキングで短縮されているビジュアルオブジェクトトラッキングは、近年注目を集めている、新しくて挑戦的な研究トピックである。
本稿では,ロバストな出現モデル学習を考慮した時空間的手がかりを考慮したrgbtトラッカを提案し,同時にクロスモーダルインタラクションのための適応型融合サブネットワークを構築する。
空間情報のみを含むオブジェクト追跡タスクを実装する既存のrgbtトラッカと異なり、この手法では時間情報も考慮される。
Specifically, different from traditional Siamese trackers, which only obtain one search image during the process of picking up template-search image pairs, an extra search sample adjacent to the original one is selected to predict the temporal transformation, resulting in improved robustness of tracking performance.As for multi-modal tracking, constrained to the limited RGBT datasets, the adaptive fusion sub-network is appended to our method at the decision level to reflect the complementary characteristics contained in two modalities.
熱赤外補助RGBトラッカーの設計には、RGBモダリティからの残差接続前に、TIRモダリティからの分類ヘッドの出力を考慮する。
VOT-RGBT2019, GTOT, RGBT210という3つの挑戦的データセットの大規模な実験結果から, 本手法の有効性が検証された。
コードは \textcolor{blue}{\emph{https://github.com/Zhangyong-Tang/TAAT}} で共有される。
関連論文リスト
- Cross Fusion RGB-T Tracking with Bi-directional Adapter [8.425592063392857]
CFBT(Cross Fusion RGB-T Tracking Architecture)を提案する。
CFBTの有効性は、新しく設計された3つの時間的情報融合モジュールに依存している。
3つのRGB-T追跡ベンチマーク実験により,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-08-30T02:45:56Z) - Unified Single-Stage Transformer Network for Efficient RGB-T Tracking [47.88113335927079]
我々は、上記3つのステージを単一のViT(Vision Transformer)バックボーンに統合するシングルステージのRGB-Tトラッキングネットワーク、すなわちUSTrackを提案する。
この構造により、ネットワークは、モダリティの相互相互作用の下でテンプレートと検索領域の融合特徴を抽出することができる。
3つのRGB-T追跡ベンチマーク実験により,提案手法は高速な推論速度84.2FPSを維持しつつ,新しい最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-08-26T05:09:57Z) - RGB-T Tracking Based on Mixed Attention [5.151994214135177]
RGB-Tトラッキングには、可視光と熱の両モードの画像の使用が含まれる。
本稿では,モーダルの相補的な融合を実現するための混合注意機構に基づくRGB-Tトラッカーを提案する。
論文 参考訳(メタデータ) (2023-04-09T15:59:41Z) - Learning Dual-Fused Modality-Aware Representations for RGBD Tracking [67.14537242378988]
従来のRGBオブジェクトトラッキングと比較して、奥行きモードの追加は、ターゲットとバックグラウンドの干渉を効果的に解決することができる。
既存のRGBDトラッカーでは2つのモードを別々に使用しており、特に有用な共有情報は無視されている。
DMTracker(Dual-fused Modality-aware Tracker)を提案する。DMTrackerは,RGBDのロバストな追跡のために,対象対象物の情報的および識別的表現を学習することを目的としている。
論文 参考訳(メタデータ) (2022-11-06T07:59:07Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - RGBT Tracking via Multi-Adapter Network with Hierarchical Divergence
Loss [37.99375824040946]
本稿では,モダリティ共有型,モダリティ特化型,インスタンス認識型ターゲット表現学習を共同で行うための,新しいマルチアダプタネットワークを提案する。
2つのRGBT追跡ベンチマークデータセットの実験は、提案したトラッカーの優れた性能を示す。
論文 参考訳(メタデータ) (2020-11-14T01:50:46Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Jointly Modeling Motion and Appearance Cues for Robust RGB-T Tracking [85.333260415532]
我々はRGBと熱(T)の両モードの融合重量マップを推定する新しい後期融合法を開発した。
外観キューが信頼できない場合には、動作キューを考慮に入れ、トラッカーを堅牢にする。
最近の3つのRGB-T追跡データセットの多くの結果から、提案したトラッカーは他の最先端のアルゴリズムよりも大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2020-07-04T08:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。