論文の概要: EANet: Enhanced Attribute-based RGBT Tracker Network
- arxiv url: http://arxiv.org/abs/2307.01893v1
- Date: Tue, 4 Jul 2023 19:34:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 15:50:30.785417
- Title: EANet: Enhanced Attribute-based RGBT Tracker Network
- Title(参考訳): EANet: 拡張アトリビュートベースのRGBTトラッカーネットワーク
- Authors: Abbas T\"urko\u{g}lu, Erdem Akag\"und\"uz
- Abstract要約: RGBと熱画像(RGBT)を融合した深層学習に基づく画像追跡手法を提案する。
提案モデルは,特徴抽出器とトラッカーの2つの主成分から構成される。
提案手法はRGBT234 citeLiCLiang 2018とLasHeR citeLiLasher 2021データセットで評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking objects can be a difficult task in computer vision, especially when
faced with challenges such as occlusion, changes in lighting, and motion blur.
Recent advances in deep learning have shown promise in challenging these
conditions. However, most deep learning-based object trackers only use visible
band (RGB) images. Thermal infrared electromagnetic waves (TIR) can provide
additional information about an object, including its temperature, when faced
with challenging conditions. We propose a deep learning-based image tracking
approach that fuses RGB and thermal images (RGBT). The proposed model consists
of two main components: a feature extractor and a tracker. The feature
extractor encodes deep features from both the RGB and the TIR images. The
tracker then uses these features to track the object using an enhanced
attribute-based architecture. We propose a fusion of attribute-specific feature
selection with an aggregation module. The proposed methods are evaluated on the
RGBT234 \cite{LiCLiang2018} and LasHeR \cite{LiLasher2021} datasets, which are
the most widely used RGBT object-tracking datasets in the literature. The
results show that the proposed system outperforms state-of-the-art RGBT object
trackers on these datasets, with a relatively smaller number of parameters.
- Abstract(参考訳): トラッキング対象は、特に咬合や照明の変化、動きのぼやきといった課題に直面した場合には、コンピュータビジョンにおいて難しい課題となることがある。
ディープラーニングの最近の進歩は、これらの条件に挑戦する可能性を示している。
しかし、ほとんどのディープラーニングベースのオブジェクトトラッカーは、可視帯域(RGB)イメージのみを使用する。
熱赤外電磁波(TIR)は、困難な状況に直面した場合、その温度を含む物体に関する追加情報を提供する。
本稿では,RGBと熱画像(RGBT)を融合した深層学習に基づく画像追跡手法を提案する。
提案モデルは,特徴抽出器とトラッカーの2つの主成分から構成される。
特徴抽出器は、RGBとTIR画像の両方の深い特徴を符号化する。
トラッカーはこれらの機能を使用して、拡張された属性ベースのアーキテクチャを使用してオブジェクトを追跡する。
本稿ではアグリゲーションモジュールを用いた属性固有の特徴選択の融合を提案する。
提案手法はRGBT234 \cite{LiCLiang2018}とLasHeR \cite{LiLasher2021}データセットで評価され,RGBTオブジェクト追跡データセットとして最も広く使用されている。
その結果,提案システムはこれらのデータセット上で,比較的少ないパラメータで,最先端のRGBTオブジェクトトラッカーよりも優れていた。
関連論文リスト
- BihoT: A Large-Scale Dataset and Benchmark for Hyperspectral Camouflaged Object Tracking [22.533682363532403]
我々は、ハイパースペクトルカモフラージュされた物体追跡(HCOT)と呼ばれる新しいタスクを提供する。
大規模HCOTデータセットであるBihoTは,49個のビデオシーケンスをカバーする41,912個のハイパースペクトル画像からなる。
スペクトルプロンプトベースインタラプタ・アウェアネットワーク(SPDAN)という,シンプルだが効果的なベースラインモデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T09:07:51Z) - Spherical Space Feature Decomposition for Guided Depth Map
Super-Resolution [123.04455334124188]
誘導深度マップ超解像(GDSR)は、低解像度(LR)深度マップに高解像度(HR)RGB画像を含む追加情報を加えることを目的としている。
本稿では,この問題を解決するために,Spherical Space Feature Decomposition Network (SSDNet)を提案する。
提案手法は,4つのテストデータセットの最先端結果と実世界のシーンへの一般化を実現する。
論文 参考訳(メタデータ) (2023-03-15T21:22:21Z) - Learning Dual-Fused Modality-Aware Representations for RGBD Tracking [67.14537242378988]
従来のRGBオブジェクトトラッキングと比較して、奥行きモードの追加は、ターゲットとバックグラウンドの干渉を効果的に解決することができる。
既存のRGBDトラッカーでは2つのモードを別々に使用しており、特に有用な共有情報は無視されている。
DMTracker(Dual-fused Modality-aware Tracker)を提案する。DMTrackerは,RGBDのロバストな追跡のために,対象対象物の情報的および識別的表現を学習することを目的としている。
論文 参考訳(メタデータ) (2022-11-06T07:59:07Z) - Mirror Complementary Transformer Network for RGB-thermal Salient Object
Detection [16.64781797503128]
RGB-熱的物体検出(RGB-T SOD)は、視光対と熱赤外画像対の一般的な顕著な物体を見つけることを目的としている。
本稿では,RGB-T SODのための新しいミラー補完トランスフォーマネットワーク(MCNet)を提案する。
ベンチマークとVT723データセットの実験により、提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-07-07T20:26:09Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - Temporal Aggregation for Adaptive RGBT Tracking [14.00078027541162]
本稿では,頑健な外見モデル学習を考慮したRGBTトラッカーを提案する。
空間情報のみを含むオブジェクト追跡タスクを実装している既存のRGBTトラッカーとは異なり、この手法では時間情報も考慮されている。
論文 参考訳(メタデータ) (2022-01-22T02:31:56Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - RGBT Salient Object Detection: A Large-scale Dataset and Benchmark [12.14043884641457]
RGBと熱赤外画像の利点を生かして、複雑な場面で顕著な物体を検出する新たな研究方向となる。
この研究はVT5000という名のRGBT画像データセットに寄与し、5000の空間的整列されたRGBT画像対と地上の真理アノテーションを含んでいる。
本稿では,各モードの多レベル特徴を抽出し,すべてのモードの特徴をアテンション機構で集約する,強力なベースラインアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-07T07:58:14Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。