論文の概要: Multi-modal Visual Tracking: Review and Experimental Comparison
- arxiv url: http://arxiv.org/abs/2012.04176v1
- Date: Tue, 8 Dec 2020 02:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 10:42:27.478707
- Title: Multi-modal Visual Tracking: Review and Experimental Comparison
- Title(参考訳): Multi-modal Visual Tracking: レビューと実験的比較
- Authors: Pengyu Zhang and Dong Wang and Huchuan Lu
- Abstract要約: マルチモーダルトラッキングアルゴリズム,特に可視深度(RGB-D)と可視温度(RGB-T)を要約する。
5つのデータセット上でトラッカーの有効性を分析する実験を行った。
- 参考スコア(独自算出の注目度): 85.20414397784937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual object tracking, as a fundamental task in computer vision, has drawn
much attention in recent years. To extend trackers to a wider range of
applications, researchers have introduced information from multiple modalities
to handle specific scenes, which is a promising research prospect with emerging
methods and benchmarks. To provide a thorough review of multi-modal track-ing,
we summarize the multi-modal tracking algorithms, especially visible-depth
(RGB-D) tracking and visible-thermal (RGB-T) tracking in a unified taxonomy
from different aspects. Second, we provide a detailed description of the
related benchmarks and challenges. Furthermore, we conduct extensive
experiments to analyze the effectiveness of trackers on five datasets: PTB,
VOT19-RGBD, GTOT, RGBT234, and VOT19-RGBT. Finally, we discuss various future
directions from different perspectives, including model design and dataset
construction for further research.
- Abstract(参考訳): 近年,コンピュータビジョンの基本課題である視覚物体追跡が注目されている。
トラッカーをより広い範囲のアプリケーションに拡張するために、研究者は特定のシーンを扱うために複数のモードからの情報を導入した。
本稿では,多モード追跡アルゴリズム,特に可視深度(RGB-D)追跡と可視温度(RGB-T)追跡を異なる側面から統一した分類法で概観する。
第2に,関連するベンチマークと課題について,詳細な説明を行う。
さらに、PTB、VOT19-RGBD、GTOT、RGBT234、VOT19-RGBTの5つのデータセットにおけるトラッカーの有効性を分析するための広範な実験を行った。
最後に,モデル設計やデータセット構築など,さまざまな観点からの今後の方向性について論じる。
関連論文リスト
- DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - Prompting for Multi-Modal Tracking [70.0522146292258]
マルチモーダルトラッキングのための新しいマルチモーダルプロンプトトラッカー(ProTrack)を提案する。
ProTrackはプロンプトパラダイムにより、マルチモーダル入力を単一モーダルに変換することができる。
我々のProTrackは、マルチモーダルデータに余分な訓練を加えることなく、入力を変更するだけで高性能なマルチモーダルトラッキングを実現することができる。
論文 参考訳(メタデータ) (2022-07-29T09:35:02Z) - Single Object Tracking Research: A Survey [44.24280758718638]
本稿では,過去10年間に最も人気の高い追跡フレームワーク2つについて,その理論的根拠と作業について述べる。
本稿では,異なるネットワーク構造に分類したディープラーニングに基づく追跡手法を提案する。
また、追跡問題の課題に対処するための古典的な戦略についても紹介する。
論文 参考訳(メタデータ) (2022-04-25T02:59:15Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - Visual Object Tracking with Discriminative Filters and Siamese Networks:
A Survey and Outlook [97.27199633649991]
識別相関フィルタ (DCF) とディープシームズネットワーク (SN) が支配的な追跡パラダイムとして出現している。
本調査では,9つのトラッキングベンチマークの結果に基づいて,90以上のDCFとSiameseトラッカーの体系的,徹底的なレビューを行う。
論文 参考訳(メタデータ) (2021-12-06T07:57:10Z) - Revisiting the details when evaluating a visual tracker [0.0]
本報告では,単一オブジェクト追跡に着目し,広く使用されているotbciteotbベンチマークに基づくトラッカ評価の詳細を再検討する。
実験結果から,追跡アルゴリズムには絶対的な勝者が存在しない可能性が示唆された。
論文 参考訳(メタデータ) (2021-01-25T13:43:27Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。