論文の概要: TRAT: Tracking by Attention Using Spatio-Temporal Features
- arxiv url: http://arxiv.org/abs/2011.09524v1
- Date: Wed, 18 Nov 2020 20:11:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:28:51.521888
- Title: TRAT: Tracking by Attention Using Spatio-Temporal Features
- Title(参考訳): TRAT:時空間特徴を用いた注意による追跡
- Authors: Hasan Saribas, Hakan Cevikalp, Okan K\"op\"ukl\"u, Bedirhan Uzun
- Abstract要約: 空間的特徴と時間的特徴の両方を利用する2ストリームディープニューラルネットワークトラッカーを提案する。
我々のアーキテクチャはATOMトラッカー上で開発され、 (i) 外観特徴を捉える2D-CNNネットワークと (ii) 動作特徴を捉える3D-CNNネットワークの2つのバックボーンを含んでいる。
- 参考スコア(独自算出の注目度): 14.520067060603209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust object tracking requires knowledge of tracked objects' appearance,
motion and their evolution over time. Although motion provides distinctive and
complementary information especially for fast moving objects, most of the
recent tracking architectures primarily focus on the objects' appearance
information. In this paper, we propose a two-stream deep neural network tracker
that uses both spatial and temporal features. Our architecture is developed
over ATOM tracker and contains two backbones: (i) 2D-CNN network to capture
appearance features and (ii) 3D-CNN network to capture motion features. The
features returned by the two networks are then fused with attention based
Feature Aggregation Module (FAM). Since the whole architecture is unified, it
can be trained end-to-end. The experimental results show that the proposed
tracker TRAT (TRacking by ATtention) achieves state-of-the-art performance on
most of the benchmarks and it significantly outperforms the baseline ATOM
tracker.
- Abstract(参考訳): ロバストなオブジェクト追跡には、追跡されたオブジェクトの外観、動き、そして時間とともに進化する知識が必要である。
動きは特に高速移動物体に特有で補完的な情報を提供するが、最近の追跡アーキテクチャのほとんどは、主に物体の出現情報に焦点を当てている。
本稿では,空間的特徴と時間的特徴の両方を用いた2ストリーム深層ニューラルネットワークトラッカを提案する。
私たちのアーキテクチャはATOMトラッカー上で開発され、2つのバックボーンを含んでいる。
(i)外観特徴を捉えた2D-CNNネットワーク
(II)3D-CNNネットワークによる動作特徴のキャプチャ。
2つのネットワークによって返される機能は、注意ベースのFeature Aggregation Module (FAM)で融合される。
アーキテクチャ全体が統一されているため、エンドツーエンドでトレーニングすることができる。
実験の結果,提案したトラッカーTRAT (TRacking by Attention) は,ほとんどのベンチマークにおいて最先端性能を実現し,ベースラインのATOMトラッカーよりも大幅に優れていた。
関連論文リスト
- SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - AttTrack: Online Deep Attention Transfer for Multi-object Tracking [4.5116674432168615]
マルチオブジェクトトラッキング(MOT)は、監視や自動運転といったインテリジェントなビデオ分析アプリケーションにおいて重要なコンポーネントである。
本稿では,複雑なネットワーク(教師)の高レベルな特徴から,学習時間と推論時間の両方で軽量なネットワーク(学生)に知識を伝達することにより,MOTの高速化を目指す。
提案した AttTrack フレームワークは,1) 教師モデルと学生モデルから中間表現を整合させるクロスモデル特徴学習,2) 推論時に2つのモデルの実行をインターリーブすること,3) 教師モデルから更新された予測を事前知識として取り入れ,学生モデルを支援する。
論文 参考訳(メタデータ) (2022-10-16T22:15:31Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - 3D-FCT: Simultaneous 3D Object Detection and Tracking Using Feature
Correlation [0.0]
3D-FCTは、時間情報を利用して3Dオブジェクトの検出と追跡の関連タスクを同時に実行するシームズネットワークアーキテクチャである。
提案手法は,最先端手法よりも5.57%mAPの改善が期待できるKITTI追跡データセットを用いて評価した。
論文 参考訳(メタデータ) (2021-10-06T06:36:29Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。